|
Origine : http://infokiosques.net/spip.php?article=229
Les technologies les plus puissantes du XXIe siècle : la robotique,
le génie génétique et les nanotechnologies menacent d’extinction
l’espèce humaine.
Mon implication dans le développement des nouvelles technologies
s’est toujours accompagnée de préoccupations d’ordre éthique, et
ce depuis le premier jour. Cependant, ce n’est qu’à l’automne 1998
que j’ai pris conscience des graves dangers que nous faisait courir
le XXIe siècle. Les premiers symptômes de ce malaise profond sont
apparus le jour de ma rencontre avec Ray Kurzweil, l’inventeur,
au succès bien légitime, de maintes choses extraordinaires, dont
le premier appareil permettant aux non-voyants de lire.
Ray et moi nous exprimions tous deux à la conférence « Telecosm
» de George Gilder. Nos interventions respectives terminées, j’ai
fait sa connaissance par hasard au bar de l’hôtel, où je me trouvais
en conversation avec John Searle, un philosophe de Berkeley spécialiste
de la conscience. C’est alors que Ray s’est approché, et qu’une
conversation s’est engagée autour d’un thème qui, depuis lors, n’a
cessé de me hanter.
J’avais raté l’intervention de Ray et la tribune qui avait suivi,
dont John et lui étaient les invités. Or les voilà qui reprenaient
le débat où ils l’avaient laissé. Ray affirmait que les progrès
en matière de technologie allaient connaître une accélération de
plus en plus rapide et que nous étions voués à devenir des robots,
à fusionner avec nos machines ou quelque chose d’approchant. Soutenant
qu’un automate n’est pas doué de conscience, John rejetait, quant
à lui, cette idée.
Si ce genre de discours m’était relativement familier, les robots
doués de sensation restaient pour moi du domaine de la science-fiction.
Or, là, sous mes yeux, un individu qui présentait toutes les garanties
de sérieux affirmait avec beaucoup de conviction l’imminence d’une
telle perspective. J’étais interloqué. Surtout connaissant la capacité
avérée de Ray à non seulement imaginer le futur, mais aussi à l’inventer
de manière concrète. Qu’il fût alors devenu possible de refaire
le monde en s’appuyant sur des technologies nouvelles comme le génie
génétique ou les nanotechnologies [1], cela n’était pas une surprise
pour moi. Par contre, inscrire dans un avenir proche un scénario
réaliste de robots « intelligents », voilà qui me laissait perplexe.
Ce genre de découvertes capitales perd vite de son piquant. Chaque
jour ou presque, un bulletin d’informations nous informe d’une avancée
supplémentaire dans un domaine ou un autre de la technologie ou
des sciences. Reste qu’en ce cas précis, la prédiction se détachait
du lot. Là, dans ce bar d’hôtel, Ray m’a remis un jeu d’épreuves
extraites de son livre, The Age of Spiritual Machines, alors sur
le point de paraître. Dans cet ouvrage, il traçait les grandes lignes
d’une utopie visionnaire : une utopie selon laquelle, en s’unissant
à la technologie robotique, l’être humain devenait une créature
quasi immortelle. Au fil des pages, mon sentiment de malaise allait
croissant : non seulement Ray, à coup sûr, minimisait les dangers
d’une telle voie, mais il réduisait également l’importance de ses
potentiels effets dévastateurs.
C’est alors que j’ai été bouleversé par un passage exposant en
détail un scénario dystopique :
UN NOUVEAU DÉFI POUR LES « LUDDISTES [2] »
« Admettons que les chercheurs en informatique parviennent à développer
des machines “intelligentes” capables de surpasser l’être humain
en toute chose. Dès lors, l’ensemble du travail serait probablement
assuré par des systèmes automatisés tentaculaires à l’organisation
rigoureuse, lesquels rendraient superflu tout effort humain. En
ce cas, de deux choses l’une : ou bien on laisse ces machines entièrement
maîtresses de leurs décisions, libres de toute supervision par l’homme,
ou bien c’est l’hypothèse du contrôle humain qui prévaut.
Face à la perspective d’unités laissées entièrement maîtresses
d’elles-mêmes, dans la mesure où il est exclu d’en anticiper le
comportement, nous nous garderons de toute spéculation sur un dénouement
possible. Reste que dès lors, il convient de le souligner, le destin
de l’humanité tomberait entre leurs mains. L’argument selon lequel
jamais le genre humain n’aura la naïveté de s’en remettre totalement
aux machines est recevable. Notre propos, toutefois, n’est pas davantage
un scénario où l’homme investirait délibérément des pleins pouvoirs
les machines, qu’un autre où celles-ci prendraient le pouvoir d’autorité.
De fait, ce que nous redoutons, c’est une dérive rapide du genre
humain vers une telle dépendance à l’égard de celles-ci, dont, concrètement,
il ne lui resterait plus d’autre choix que d’accepter en bloc leurs
décisions. A mesure que la complexité de la société et des problèmes
auxquels elle doit faire face iront croissants, et à mesure que
les dispositifs deviendront plus “intelligents”, un nombre toujours
plus grand de décisions leur seront confiées. La raison en est simple
: on obtiendra de meilleurs résultats. On peut même imaginer qu’à
terme, les prises de décisions nécessaires à la gestion du système
atteindront un degré de complexité tel qu’elles échapperont aux
capacités de l’intelligence humaine. Ce jour-là, les machines auront
effectivement pris le contrôle. Les éteindre ? Il n’en sera pas
question. Etant donné notre degré de dépendance, ce serait un acte
suicidaire. L’option alternative consisterait à asservir les machines
au contrôle de l’homme. Si, dans une telle hypothèse, l’individu
lambda conserve la maîtrise de certains appareils personnels tels
que sa voiture ou son ordinateur, celle des systèmes de grande envergure
devient le monopole d’une élite restreinte - comme c’est le cas
aujourd’hui, mais à deux détails près. Avec l’évolution des techniques,
cette élite exercera sur les masses un contrôle renforcé. Et puisqu’à
ce stade la main-d’œuvre humaine ne sera plus nécessaire, les masses
elles-mêmes deviendront superflues. Elles ne seront plus qu’un fardeau
inutile alourdissant le système. Si l’élite en question est cruelle,
il se peut qu’elle décide simplement d’exterminer l’humanité. Si
elle est humaine, elle peut recourir à la propagande ou à d’autres
techniques psychologiques ou biologiques, pour provoquer une chute
du taux de natalité telle que la masse de l’humanité finirait par
s’éteindre. L’élite pourrait alors imposer ses vues au reste du
monde. Ou encore, serait-elle constituée de démocrates au cœur tendre,
elle pourrait fort bien s’investir du rôle du berger menant avec
bienveillance le reste de l’humanité. Ses tenants veilleront à ce
que les besoins matériels soient satisfaits, à ce qu’une éducation
soit assurée à tout enfant dans un climat psychologique sain, à
ce que chacun s’occupe avec un passe-temps hygiénique et qu’enfin,
quiconque s’estime mécontent subisse un “traitement” destiné à régler
son “problème”. Bien entendu, la vie sera tellement vide de sens
qu’il conviendra de soumettre les individus à des manipulations
biologiques ou psychologiques, soit destinées à éradiquer toute
velléité de pouvoir, soit à “sublimer” cette soif de pouvoir en
quelque passe-temps inoffensif. Dans une telle société, ces êtres
humains manipulés vivront peut-être heureux ; pour autant, la liberté
leur sera clairement étrangère. On les aura réduits au rang d’animaux
domestiques [3]
L’auteur de ce passage n’est autre que Theodore Kaczynski, alias
Unabomber, mais on ne le découvre qu’à la page suivante. Loin de
moi l’idée de vanter ses mérites. En dix-sept ans d’une campagne
terroriste, ses bombes ont tué trois personnes et en ont blessé
une multitude d’autres. L’une d’elles a gravement atteint mon ami
David Gelernter, l’un des chercheurs en informatique les plus brillants
de notre époque, véritable visionnaire. En outre, comme beaucoup
de mes collègues, j’avais le sentiment que je pourrais facilement
être sa prochaine cible.
Les actes de Kaczynski sont criminels et, à mes yeux, la marque
d’une folie meurtrière. Nous sommes clairement en présence d’un
« luddiste ». Pour autant, ce simple constat ne balaie pas son argumentation.
Il m’en coûte, mais je dois l’admettre : dans ce passage précis,
son raisonnement mérite attention. J’ai ressenti le besoin impérieux
de prendre le taureau par les cornes.
La vision dystopique [4] de Kaczynski expose le phénomène des conséquences
involontaires, problème bien connu allant de pair avec la création
et l’usage de toute technologie. Ce phénomène renvoie directement
à la loi de Murphy, en vertu de laquelle « tout ce qui peut dysfonctionner
dysfonctionnera [5] » (il s’agit en réalité de la loi de Finagle,
assertion qui, par nature, donne d’emblée raison à son auteur).
L’usage immodéré des antibiotiques a engendré un problème qui, parmi
tous les autres de ce type, est peut-être le plus grave : l’apparition
de bactéries « antibio-résistantes », infiniment plus redoutables.
Des effets similaires ont été observés lorsque, pour éliminer le
moustique de la malaria, on a eu recours au DDT, en conséquence
de quoi cet animal est devenu résistant au produit destiné à les
détruire. En outre, les parasites liés à cette maladie ont développé
des gênes (multi-résistants) [6]. La cause d’un si grand nombre
d’imprévus semble claire : les systèmes qui entrent en jeu sont
complexes, supposent une interaction entre eux et ont besoin que
les nombreuses parties concernées leur renvoient un feed-back. La
moindre modification dans un tel système provoque une onde de choc
dont les répercussions sont impossibles à prévoir. Cela est d’autant
plus vrai que l’homme intervient dans le processus.
J’ai commencé à faire lire à mes amis le passage de Kaczynski cité
dans The Age of Spiritual Machines ; je leur tendais le livre de
Kurzweil, les laissais prendre connaissance de l’extrait, puis observais
leur réaction une fois qu’ils en découvraient l’auteur. Environ
à la même époque, j’ai découvert le livre de Hans Moravec, Robot
: Mere Machine to Transcendent Mind. Moravec, éminence parmi les
éminences dans la recherche en robotique, a participé à la création
d’un des plus vastes programmes mondiaux dans ce domaine, à la Carnegie
Mellon University. Robot m’a fourni du matériel supplémentaire pour
tester mes amis. Celui-ci abondait de façon surprenante dans le
sens des thèses de Kaczynski. Ceci par exemple :
A court terme (début des années 2000)
« Une espèce biologique ne survit que très rarement à une rencontre
avec une espèce rivale présentant un degré d’évolution supérieur.
Il y a dix millions d’années, l’Amérique du Nord et l’Amérique du
Sud étaient séparées par un isthme de Panama alors immergé. Comme
l’Australie aujourd’hui, l’Amérique du Sud était peuplée de mammifères
marsupiaux, en particulier d’équivalents de rats, de cervidés et
de tigres, tous équipés d’une poche ventrale. Lorsque l’isthme faisant
la jonction entre les deux Amériques s’est soulevé, quelques milliers
d’années ont suffi aux espèces placentaires venues du Nord, dotées
de métabolismes et de systèmes reproducteurs et nerveux légèrement
plus efficaces, pour déplacer et éliminer la quasi-totalité des
marsupiaux du Sud. Dans un contexte de libéralisme sans freins,
des robots présentant un degré d’évolution supérieur ne manqueraient
pas de modifier l’homme, de la même manière que les placentaires
d’Amérique du Nord ont modifié les marsupiaux d’Amérique du Sud
(et que l’homme lui-même a affecté un grand nombre d’espèces). Les
industries de la robotique se livreraient une compétition féroce
dans une course à la matière, à l’énergie et à l’espace, relevant
au passage leurs tarifs pour s’établir à des niveaux inaccessibles
à l’homme. Dès lors incapable de subvenir à ses besoins, l’homme
biologique se retrouverait poussé hors de l’existence. Il nous reste
sans doute une réserve d’oxygène, dans la mesure où nous ne vivons
pas dans un contexte de libéralisme sans freins. Le gouvernement
nous contraint à certains comportements collectifs, en priorité
par l’impôt. Avec une telle régulation, exercée judicieusement,
les populations humaines pourraient amplement bénéficier du travail
des robots, et ce pour un bon moment. »
Un exemple classique de dystopie, et encore : Moravec ne fait là
que s’échauffer. Plus loin, il explique comment, au XXIe siècle,
notre tâche principale consistera à « veiller à s’assurer la coopération
indéfectible des industries de la robotique » en votant des lois
les astreignant à rester « aimables [7]. En outre, il rappelle à
quel point, « une fois modifié en robot superintelligent non-bridé
», l’homme peut se révéler un être extrêmement dangereux.
La thèse de Moravec est qu’à terme, les robots nous succéderont
: pour lui, l’humanité est clairement vouée à disparaître.
C’était dit : une conversation avec mon ami Danny Hillis s’imposait.
Danny Hillis s’est rendu célèbre comme co-fondateur de la Thinking
Machines Corporation, qui a fabriqué un superordinateur parallèle
extrêmement puissant. Malgré mon titre actuel de chief scientist
chez Sun Microsystems, je suis davantage un architecte d’ordinateurs
qu’un scientifique au sens strict, et le respect que je voue à Danny
pour sa connaissance de l’information et des sciences physiques
est sans commune mesure. En outre, Danny est un futurologue respecté,
quelqu’un qui voit à long terme ; il y a quatre ans, il a créé la
Long Now Foundation, qui travaille à l’heure actuelle sur une horloge
construite pour durer dix mille ans. L’objectif est d’attirer l’attention
sur la propension de notre société à n’examiner les événements que
sur un nombre d’années lamentablement court (voir « Test of Time
», Wired 8.03, p.78).
J’ai donc sauté dans un avion pour Los Angeles tout spécialement
pour aller dîner avec Danny et sa femme, Pati. Selon une routine
désormais très rodée, j’ai débité les idées et les passages que
je trouvais si dérangeants. La réponse de Danny - référence claire
au scénario de l’homme fusionnant avec la machine imaginé par Kurzweil
- a jailli promptement, et m’a plutôt surpris : les changements
interviendraient progressivement, s’est-il contenté de dire, et
nous allions nous y faire.
Mais en définitive, cela ne m’étonnait pas plus que ça. Dans le
livre de Kurzweil, j’avais relevé une citation de Danny qui disait
ceci : « J’aime bien mon corps, comme tout le monde, mais si un
corps de silicone me permet de vivre jusqu’à 200 ans, je suis partant.
» Ni le processus en tant que tel ni les risques qui s’y rattachaient
ne semblaient l’inquiéter le moins du monde. Contrairement à moi.
A force de parler de Kurzweil, de Kaczynski et de Moravec et de
retourner leurs idées dans ma tête, je me suis souvenu d’un roman
que j’avais lu près de vingt ans auparavant, The White Plague [8]
de Frank Herbert, dans lequel un chercheur en biologie moléculaire
sombre dans la folie suite au meurtre insensé de sa famille. Pour
se venger, il fabrique et répand les bacilles d’une peste inconnue
et hautement contagieuse qui tue à grande échelle, mais de façon
élective (par chance, Kaczynski était mathématicien et pas chercheur
en biologie moléculaire). Un autre souvenir m’est également revenu,
celui du Borg de « Star Trek » : un essaim de créatures mi-biologiques,
mi-robotiques qui se distinguent par une nette propension à détruire.
Alors, puisque les catastrophes du type Borg sont un classique en
science-fiction, pourquoi ne m’étais-je pas inquiété plus tôt de
ce genre de dystopies dans le domaine de la robotique ? Et pour
quelle raison les autres ne s’inquiétaient-ils pas davantage de
ces scénarios cauchemardesques ?
La réponse à cette interrogation réside sans aucun doute dans notre
attitude face à ce qui est nouveau, c’est-à-dire dans notre tendance
à la familiarité immédiate et à l’acceptation inconditionnelle des
choses. Si les avancées technologiques ne sont plus à nos yeux que
des événements de routine ou presque, il va pourtant falloir se
résoudre à regarder les choses en face : les technologies les plus
incontournables du XXIe siècle - la robotique, le génie génétique
et les nanotechnologies - représentent une menace différente des
technologies antérieures. Concrètement, les robots, les organismes
génétiquement modifiés et les « nanorobots » ont en commun un facteur
démultipliant : ils ont la capacité de s’autoreproduire. Une bombe
n’explose qu’une fois ; un robot, en revanche, peut proliférer et
rapidement échapper à tout contrôle.
Depuis vingt-cinq ans, mon travail porte essentiellement sur les
réseaux informatiques, où l’envoi et la réception de messages crée
la possibilité d’une reproduction non contrôlée. Si, dans un ordinateur
ou un réseau informatique, la duplication peut provoquer des dégâts,
la conséquence ultime en sera, dans le pire des cas, une mise hors
service de l’appareil, du réseau, ou un blocage de l’accès à ce
réseau. Or l’autoreproduction incontrôlée dans le domaine de ces
technologies plus récentes nous fait courir un danger beaucoup plus
grave : celui de substantielles dégradations du monde physique.
En outre, chacune de ces technologies nous fait miroiter sa promesse
secrète, et ce qui nous meut n’est autre que la vision de quasi-immortalité
présente dans les rêves de robot de Kurzweil. Le génie génétique
permettra bientôt de trouver les traitements adaptés pour soigner,
voire éradiquer la plupart des maladies ; enfin, les nanotechnologies
et la nanomédecine permettront d’en traiter d’autres encore. Combinées
les unes aux autres, elle pourraient allonger notre espérance de
vie et en améliorer la qualité de façon significative. Il n’en demeure
pas moins que, s’agissant de ces diverses technologies, une séquence
de petits paliers - sensés, lorsqu’ils sont pris isolément - débouche
sur une accumulation massive de pouvoir et, de ce fait, sur un danger
redoutable.
Quelle différence avec le XXe siècle ? Certes, les technologies
liées aux armes de destruction massive (WMD) - nucléaires, biologiques
et chimiques (NBC) - étaient puissantes, et l’arsenal faisait peser
sur nous une menace extrême. Cependant, la fabrication d’engins
atomiques supposait, du moins pendant un temps, l’accès à des matériaux
rares - et même inaccessibles -, autant qu’à des informations hautement
confidentielles. Au surplus, les programmes d’armement biologiques
et chimiques exigeaient souvent des activités à grande échelle.
Les technologies du XXIe siècle - génétique, nanotechnologies et
robotique (GNR) - sont porteuses d’une puissance telle qu’elles
ont la capacité d’engendrer des classes entières d’accidents et
d’abus totalement inédits. Circonstance aggravante, pour la première
fois, ces accidents et ces abus sont dans une large mesure à la
porté d’individus isolés ou de groupes restreints. En effet, ces
technologies ne supposent ni l’accès à des installations de grande
envergure, ni à des matériaux rares ; la seule condition pour y
avoir recours, c’est d’être en possession du savoir requis.
En conséquence, la menace sous laquelle nous nous trouvons aujourd’hui
ne se limite plus au seul problème des armes de destruction massive.
Vient s’y ajouter celle de l’acquisition d’une connaissance qui,
à elle seule, permet cette destruction à très grande échelle. En
outre, le potentiel d’anéantissement se trouve démultiplié par l’autoreproduction.
Il ne me semble pas déraisonnable d’affirmer qu’ayant touché aux
sommets du mal absolu, nous nous apprêtons à en repousser encore
les limites. Surprenant et redoutable, ce mal s’étend bien au-delà
d’un arsenal dévastateur qui resterait l’apanage des Etats-nations,
pour tomber aujourd’hui entre les mains d’extrémistes isolés.
Rien, dans la manière dont je me suis retrouvé impliqué dans le
monde des ordinateurs, ne me laissait présager que de tels enjeux
se présenteraient un jour devant moi.
Mon moteur a toujours été un besoin aigu de poser des questions
et de trouver des réponses. A l’âge de trois ans, comme je lisais
déjà, mon père m’a inscrit à l’école élémentaire, où, assis sur
les genoux du directeur, je lui lisais des histoires. J’ai commencé
l’école en avance, j’ai sauté une classe, pour finalement m’évader
dans les livres. J’avais une soif d’apprendre incroyable. Je posais
des tas de questions, jetant souvent le trouble dans l’esprit des
adultes.
Adolescent, je m’intéressais de près à la science et aux technologies.
J’avais dans l’idée de devenir radioamateur, mais je ne disposais
pas de l’argent suffisant pour me payer le matériel. Le poste du
radioamateur était l’Internet d’alors : très compulsif, et plutôt
solitaire. Outre les considérations financières, ma mère a stoppé
net : pas question que je me lance là-dedans - j’étais déjà assez
asocial comme ça.
Les amis proches ne se bousculaient pas au portillon, mais je bouillonnais
d’idées. Dès le lycée, j’ai découvert les grands auteurs de science-fiction.
Je me souviens en particulier de Have Spacesuit Will Travel de Heinlein,
et de I, Robot d’Asimov, avec ses « trois règles de la robotique
». Les descriptions de voyages dans l’espace m’enchantaient. Je
rêvais d’un télescope pour observer les étoiles, mais n’ayant pas
assez d’argent pour m’en acheter un ou me le fabriquer moi-même,
j’épluchais, en guise de consolation, les livres pratiques expliquant
comment s’y prendre. Je montais en flèche, mais en pensée.
Le jeudi soir, c’était bowling. Mes parents allaient faire leurs
parties et nous, les gosses, restions tout seuls à la maison. C’était
le jour de « Star Trek », de Gene Roddenberry, dont c’étaient à
l’époque les épisodes originaux. Cette série télévisée m’a profondément
marqué. J’en suis arrivé à accepter son idée, selon laquelle l’homme
avait un avenir dans l’espace, à l’occidentale, avec ses héros invincibles
et ses aventures extraordinaires. La vision de Roddenberry des siècles
à venir reposait sur des valeurs morales solides, exprimées dans
des codes de conduite comme la « première directive » : ne pas interférer
dans le développement de civilisations moins avancées sur le plan
technologique. Cela exerçait sur moi une fascination sans borne
; aux commandes de ce futur, on trouvait non pas des robots, mais
des êtres humains, avec une éthique. Et j’ai partiellement fait
mien le rêve de Roddenberry.
Au lycée, mon niveau en mathématiques était excellent, et quand
je suis parti à l’université du Michigan pour y préparer ma licence
d’ingénieur, je me suis tout de suite inscrit en mathématiques supérieures.
Résoudre des problèmes mathématiques était un joli défi, mais avec
les ordinateurs, j’ai découvert quelque chose de nettement plus
intéressant : une machine dans laquelle on pouvait introduire un
programme qui tentait de résoudre le problème, suite à quoi la machine
vérifiait rapidement si cette solution était bonne. L’ordinateur
avait une idée claire de ce qui était exact ou inexact, de ce qui
était vrai ou faux. Mes idées étaient-elles justes ? La machine
pourrait me le dire. Tout cela était très séduisant.
Par chance, j’ai réussi à me trouver un travail dans la programmation
des premiers superordinateurs, et j’ai découvert les extraordinaires
capacités des unités puissantes qui permettent, grâce à la simulation
numérique, d’élaborer des concepts de haute technologie. Arrivé
à l’UC Berkeley, au milieu des années 70, pour y suivre mon troisième
cycle, j’ai commencé à aller au cœur des machines pour inventer
des mondes nouveaux, me couchant tard, les jours où je me couchais.
A résoudre des problèmes. A rédiger les codes qui désespéraient
d’être écrits.
Dans The Agony and the Ecstasy, sa biographie romancée de Michel-Ange,
Irving Stone décrit avec un réalisme saisissant comment le sculpteur,
« perçant le secret » de la pierre, laissait ses visions guider
son ciseau pour libérer les statues de leur gangue minérale [9].
De la même manière, dans mes moments d’euphorie les plus intenses,
c’est comme si le logiciel surgissait des profondeurs de l’ordinateur.
Une fois finalisé dans mon esprit, j’avais le sentiment qu’il siégeait
dans la machine, n’attendant plus que l’instant de sa libération.
Dans cette optique, ne pas fermer l’œil de la nuit me semblait un
prix à payer bien dérisoire pour lui donner sa liberté, pour que
mes idées prennent forme.
Au bout de quelques années à Berkeley, j’ai commencé à envoyer
certains des logiciels que j’avais conçus - un système Pascal d’instructions,
des utilitaires Unix, ainsi qu’un éditeur de texte nommé vi (lequel,
à ma grande surprise, est toujours utilisé vingt ans plus tard)
- à des gens également équipés de petits PDP-II et de mini-ordinateurs
VAX. Ces aventures au pays du software ont finalement donné naissance
à la version Berkeley du système d’exploitation Unix, lequel, sur
le plan personnel, s’est soldé par un « succès désastreux » : la
demande était si forte que je n’ai jamais pu boucler mon PhD. En
revanche, j’ai été recruté par Darpa pour mettre sur Internet la
version Berkeley du système Unix, et la corriger pour en faire quelque
chose de fiable et capable de faire tourner des applications de
recherche de grande envergure également. Tout cela m’a follement
amusé et a été très gratifiant.
Et, franchement, je ne voyais pas l’ombre d’un robot nulle part.
Ni ici ni à proximité.
Reste qu’au début des années 80, j’étais submergé. Les versions
Unix connaissaient un grand succès, et bientôt, ce qui était au
départ un petit projet personnel a trouvé son financement et s’est
doté d’effectifs. Cependant, comme toujours à Berkeley, le problème
était moins l’argent que les mètres carrés. Compte tenu de l’envergure
du projet et des effectifs requis, l’espace manquait. C’est pourquoi
lorsque sont apparus les autres membres fondateurs de Sun Microsystems,
j’ai sauté sur l’occasion d’unir nos forces. Chez Sun, les journées
interminables ont été le quotidien jusqu’aux premières générations
de stations de travail et de PC, et j’ai eu le plaisir de participer
à l’élaboration de technologies de pointe dans le domaine des microprocesseurs
et des technologies Internet telles que Java et Jini.
Tout cela, il me semble, le laisse clairement apparaître : je ne
suis pas un « luddiste ». Bien au contraire. J’ai toujours tenu
la quête de vérité scientifique dans la plus haute estime, et toujours
été intimement convaincu de la capacité de la grande ingénierie
à engendrer le progrès matériel. La révolution industrielle a amélioré
notre vie à tous de façon extraordinaire au cours des deux derniers
siècles, et, concernant ma carrière, mon vœu a toujours été de produire
des solutions utiles à des problèmes réels, en les gérant un par
un.
Je n’ai pas été déçu. Mon travail a eu des répercussions proprement
inespérées, et l’utilisation à grande échelle qui en a été faite
a, de surcroît, dépassé mes rêves les plus fous. Voilà maintenant
vingt ans que je me creuse la tête pour fabriquer des ordinateurs
suffisamment fiables à mes yeux (on est encore loin du compte),
et pour tenter d’en accroître le confort d’utilisation (un objectif
encore plus loin d’être réalisé à ce jour). Reste que, si certains
progrès ont été accomplis, les problèmes qui subsistent semblent
plus décourageants encore.
Toutefois, si j’avais conscience des dilemmes moraux liés aux conséquences
de certaines technologies dans des domaines comme la recherche en
armements, loin de moi l’idée qu’ils pourraient un jour surgir dans
mon propre secteur. Ou, en tout cas, pas si prématurément.
Happé dans le vortex d’une transformation, sans doute est-il toujours
difficile d’entrevoir le réel impact des choses. Que ce soit dans
le domaine des sciences ou celui des technologies, l’incapacité
à saisir les conséquences de leurs inventions semble un défaut largement
répandu parmi les chercheurs, tout à l’ivresse de la découverte
et de l’innovation. Inhérent à la quête scientifique, le désir naturel
de savoir brûle en nous depuis si longtemps que nous négligeons
de marquer une pause pour prendre acte de ceci : le progrès à l’origine
de technologies toujours plus innovantes et toujours plus puissantes
peut nous échapper et déclencher un processus autonome.
J’ai réalisé depuis bien longtemps que ce n’est ni au travail des
chercheurs en informatique, ni à celui des concepteurs d’ordinateurs
ou des ingénieurs que l’on doit les avancées significatives dans
le domaine des technologies de l’information, mais à celui des chercheurs
en physique. Au début des années 80, les physiciens Stephen Wolfram
et Brosl Hasslacher m’ont initié à la théorie du chaos et aux systèmes
non linéaires. Au cours des années 90, des conversations avec Danny
Hillis, le biologiste Stuart Kauffman, le Prix Nobel de physique
Murray Gell-Mann et d’autres m’ont permis de découvrir des systèmes
complexes. Plus récemment, Hasslacher et Mark Reed, ingénieur et
physicien des puces, m’ont éclairé sur les possibilités extraordinaires
de l’électronique moléculaire.
Dans le cadre de mon propre travail, étant le concepteur associé
de trois architectures de microprocesseurs - Sparc, PicoJava et
MAJC - et, en outre, de plusieurs de leurs implémentations, je bénéficie
d’une place de choix pour vérifier, personnellement et sans relâche,
le bien-fondé de la loi de Moore. Des décennies durant, cette loi
nous a permis d’estimer avec précision le taux exponentiel de perfectionnement
des technologies en matière de semi-conducteurs. Jusqu’à l’année
dernière, j’avais la conviction que vers 2010 environ, certaines
limites finiraient par être physiquement atteintes et que, par le
fait, ce taux de croissance chuterait. A mes yeux, aucun signal
n’indiquait clairement qu’une technologie nouvelle apparaîtrait
suffisamment tôt pour maintenir une cadence soutenue.
Mais du fait des récents progrès, saisissants et rapides, dans
le domaine de l’électronique moléculaire - où des atomes et des
molécules isolés remplacent les transistors lithographiés -, ainsi
que dans le secteur des technologies à l’échelle « nano » qui s’y
rattachent, tout indique que nous devrions maintenir ou accroître
le taux de croissance annoncé par la loi de Moore pendant encore
trente ans. C’est ainsi qu’à l’horizon 2030, nous devrions être
en mesure de produire, en quantité, des unités un million de fois
plus puissantes que les ordinateurs personnels d’aujourd’hui. En
clair, suffisamment puissantes pour réaliser les rêves de Kurzweil
et de Moravec.
La combinaison de cette formidable puissance informatique, d’une
part aux progrès réalisés en matière de manipulation dans le domaine
des sciences physiques, d’autre part aux récentes découvertes cruciales
dans celui de la génétique, aura pour conséquence de libérer une
déferlante dont le pouvoir de transformation est phénoménal. Ces
cumuls permettent d’envisager une complète redistribution des cartes,
pour le meilleur ou pour le pire. Les processus de duplication et
de développement, jusqu’alors circonscrits au monde physique, sont
aujourd’hui à la portée de l’homme.
En créant des logiciels et des microprocesseurs, je n’ai jamais
eu le sentiment de développer une seule machine « intelligente ».
Compte tenu de la grande fragilité du software comme du hardware
et des capacités de « réflexion » clairement nulles que montre une
machine, j’ai toujours renvoyé cela à un futur très éloigné - même
en temps que simple possibilité.
Mais aujourd’hui, dans la perspective d’une puissance informatique
rattrapant celle des capacités humaines à l’horizon 2030, je sens
poindre une idée nouvelle : celle que, peut-être, je travaille à
l’élaboration d’outils capables de produire une technologie qui
pourrait se substituer à notre espèce. Sur ce point, quel est mon
sentiment ? Celui d’un profond malaise. M’étant battu tout au long
de ma carrière pour fabriquer des logiciels fiables, l’éventualité
d’un futur nettement moins rose que certains voudraient l’imaginer
m’apparaît aujourd’hui plus que probable. Si j’en crois mon expérience
personnelle, nous avons tendance à surestimer nos capacités de concepteurs.
Etant donné la puissance redoutable de ces nouvelles technologies,
ne devrions-nous pas nous interroger sur les meilleurs moyens de
coexister avec elles ? Et si, à terme, leur développement peut ou
doit sonner le glas de notre espèce, ne devrions-nous pas avancer
avec la plus grande prudence ?
Le rêve de la robotique est, premièrement, de parvenir à ce que
des machines « intelligentes » fassent le travail à notre place,
de sorte que, renouant avec l’Eden perdu, nous puissions vivre une
vie d’oisiveté. Reste que dans sa version à lui, Darwin Among the
Machines, George Dyson nous met en garde : « Dans le jeu de la vie
et de l’évolution, trois joueurs sont assis à la table : l’être
humain, la nature et les machines. Je me range clairement du côté
de la nature. Mais la nature, j’en ai peur, est du côté des machines.
» On l’a vu, Moravec le rejoint sur ce point, puisqu’il se déclare
convaincu de nos minces chances de survie en cas de rencontre avec
l’espèce supérieure des robots.
A quel horizon un robot « intelligent » de ce type pourrait-il
voir le jour ? Le bond en avant prochain des capacités informatiques
laisse à penser que ce pourrait être en 2030. Or, une fois un premier
robot intelligent mis au point, il ne reste à franchir qu’un petit
pas pour en créer une espèce toute entière, autrement dit pour créer
un robot intelligent capable de se dupliquer, de fabriquer des copies
élaborées de lui-même.
Un deuxième rêve de la robotique veut que peu à peu, notre technologie
robotique va se substituer à nous, et que, grâce au transfert de
la conscience, nous accéderons à la quasi-immortalité. C’est précisément
à ce processus que, selon Danny Hillis, nous allons nous habituer,
et c’est celui-là également qu’expose en détail et avec distinction
Ray Kurzweil dans The Age of Spiritual Machines (on commence à le
voir avec l’implantation dans le corps humain de dispositifs informatiques,
comme en atteste la couverture de Wired 8.02.
Mais si nous devenons des extensions de nos technologies, quelles
sont nos chances de rester nous-mêmes et, même, de rester des êtres
humains ? Il me semble plus qu’évident qu’une existence de robot
serait sans commune mesure avec une existence d’être humain au sens
auquel nous l’entendons, quel qu’il soit, qu’en aucun cas les robots
ne seraient nos enfants, et que, sur cette voie-là, notre humanité
pourrait bien se perdre.
Le génie génétique promet de révolutionner l’agriculture en combinant
l’accroissement des récoltes à la réduction de l’usage des pesticides
; de créer des dizaines de milliers d’espèces inédites de bactéries,
plantes, virus, et animaux ; de remplacer, ou du moins de compléter,
la reproduction par le clonage ; de produire des remèdes à d’innombrables
maladies ; d’augmenter notre espérance de vie et notre qualité de
vie ; et beaucoup, beaucoup d’autres choses encore. Aujourd’hui,
nous en avons parfaitement conscience : ces profonds changements
dans le domaine des sciences de la biologie vont intervenir incessamment,
et vont mettre en question toutes les notions que nous avons de
la vie.
Des technologies comme le clonage humain, en particulier, nous
ont sensibilisés aux questions fondamentales d’éthique et de morale
qui se posent. Mettre le génie génétique au service d’une restructuration
du genre humain en plusieurs espèces distinctes et inégales, par
exemple, mettrait en péril la notion d’égalité, elle-même composante
essentielle de notre démocratie.
Compte tenu de la puissance formidable que recèle le génie génétique,
rien d’étonnant à ce que des questions fondamentales de sécurité
en limitent l’usage. Mon ami[e] Amory Lovins a récemment signé,
en collaboration avec Hunter Lovins, un éditorial qui fournit un
point de vue écologique sur un certain nombre de ces dangers. Au
nombre de leurs préoccupations figure celle « que la nouvelle botanique
aligne le développement des plantes sur leur prospérité, non plus
au regard de l’évolution, mais du point de vue de la rentabilité
économique » (voir A Tale of Two Botanies, p.247). Amory Lovins
travaille depuis longtemps sur le rapport énergie/ressources en
étudiant les systèmes créés par l’homme selon la méthode dite whole-system
view, une approche globale qui permet souvent de trouver des solutions
simples et intelligentes à des problèmes qui, examinés sous un angle
différent, peuvent apparaître délicats. En l’occurrence, cette méthode
se révèle également concluante.
Quelque temps près avoir lu l’éditorial des Lovins, j’ai relevé,
dans l’édition du 19 novembre 1999 du New York Times, un billet
traitant des organismes génétiquement modifiés dans l’agriculture,
signé Gregg Easterbrook sous le titre « Nourriture du futur : Un
jour, de la vitamine A intégrée dans votre grain de riz. Sauf en
cas de victoire des luddistes ».
Amory et Hunter Lovins seraient-ils des « luddistes » ? A l’évidence,
non. Nul ne doute, j’imagine, des possibles bienfaits du golden
rice, avec sa vitamine A intégrée, dans la mesure où on le développe
dans le respect des potentiels dangers découlant du franchissement
des barrières entre espèces.
Comme en atteste l’éditorial des Lovins, la vigilance face aux
dangers inhérents au génie génétique commence à se renforcer. Dans
une très large mesure, la population a connaissance des aliments
à base d’organismes génétiquement modifiés et éprouve un malaise
devant ceux-ci ; elle semble opposée à l’idée de leur circulation
sans étiquetage adéquat.
Mais le génie génétique a déjà parcouru beaucoup de chemin. Comme
le soulignent les Lovins, l’USDA a déjà avalisé la mise en vente
illimitée d’une cinquantaine de produits agricoles génétiquement
modifiés. C’est ainsi qu’aujourd’hui, plus de la moitié du soja
ainsi qu’un tiers du maïs mondial contiennent des gènes transférés,
issus d’un croisement avec d’autres formes de vie.
Si, dans ce contexte, les enjeux de taille ne manquent pas, ma
principale crainte dans le domaine du génie génétique est plus ciblée
: celle que cette technologie puisse donner le pouvoir de déclencher
une « peste blanche » - militairement, accidentellement ou par un
acte terroriste délibéré.
Les maintes merveilles des « nanotechnologies » ont, à l’origine,
été imaginées par le prix Nobel de physique Richard Feynman, dans
un discours qu’il a tenu en 1959, publié par la suite sous le titre
« There’s plenty of room at the bottom ». Au milieu des années 80,
un livre m’a fait forte impression : il s’agit d’Engines of Creation,
d’Eric Drexler. Dans cet ouvrage, l’auteur décrit en termes vibrants
comment la manipulation de la matière au niveau de l’atome pourrait
permettre de bâtir un futur utopique de profusion de biens matériels,
dans lequel chaque chose ou presque pourrait être produite à un
coût dérisoire, et où, grâce aux nanotechnologies et aux intelligences
artificielles, quasiment n’importe quelle maladie ou problème physique
pourrait être résolu.
Dans la foulée, un livre, cette fois cosigné par Drexler sous le
titre Unbounding the Future : The Nanotechnology Revolution, imaginait
certains des changements susceptibles d’intervenir dans un monde
doté d’« assembleurs » à l’échelle moléculaire. Grâce à ces micromonteurs,
et pour des prix incroyablement bas, il devenait possible de produire
de l’énergie solaire, de renforcer les capacités du système immunitaire
pour soigner les maladies, du cancer au simple rhume, de nettoyer
l’environnement de fond en comble, ou de mettre sur le marché des
superordinateurs de poche à des prix dérisoires. Concrètement, ces
assembleurs avaient la capacité de produire en série n’importe quel
produit pour un prix n’excédant pas celui du bois, de rendre les
voyages dans l’espace plus abordables que les croisières transocéaniques
ne le sont aujourd’hui, ou encore de rétablir des espèces disparues.
Je me souviens de l’impression favorable que la lecture d’Engines
of Creation m’a laissée vis-à-vis des nanotechnologies. En refermant
ce livre, l’homme de technologie que je suis a été gagné par un
sentiment de paix, en ce sens qu’elles laissaient augurer d’un progrès
phénoménal. Ce progrès était non seulement possible, mais peut-être
même inéluctable. Si les nanotechnologies étaient notre futur, alors
trouver, là, tout de suite, une solution à la multitude de problèmes
qui se posaient à moi ne revêtait plus le même caractère d’urgence.
J’en viendrais au futur utopique de Drexler en temps et en heure
: tant qu’à faire, autant profiter un peu de la vie, ici et maintenant.
Compte tenu de sa vision, travailler sans relâche de jour comme
de nuit n’avait plus guère de sens.
La vision de Drexler a également été pour moi une source de franches
rigolades. Je me suis surpris plus d’une fois à vanter à ceux qui
n’en avaient jamais entendu parler les vertus extraordinaires des
nanotechnologies. Après les avoir émoustillés avec les descriptions
de Drexler, je leur assignais une petite mission de mon cru : «
En recourant aux méthodes des nanotechnologies, produisez un vampire.
Pour marquer des points supplémentaires, créez l’antidote. »
Les merveilles en question portaient en elles de réels dangers,
et ces dangers, j’en avais une conscience aiguë. Comme je l’ai affirmé
en 1989 lors d’une conférence [10], « nous ne pouvons nous borner
à notre discipline sans prendre en considération ces questions éthiques
».
Mais les conversations que j’ai eues par la suite avec des physiciens
m’en ont convaincu : selon toute vraisemblance, les nanotechnologies
resteraient un rêve - ou, en tout cas, elles ne risquaient pas d’être
opérationnelles de sitôt. Peu de temps après, je suis parti m’installer
dans le Colorado, où j’avais monté une équipe de conception de hautes
technologies, avant que mon intérêt ne se porte sur des logiciels
destinés à l’Internet, prioritairement sur des idées qui allaient
devenir le langage Java et le protocole Jini.
Et puis, l’été dernier, Brosl Hasslacher me l’a annoncé : l’électronique
moléculaire à l’échelle « nano » était devenue réalité. Cette fois-ci,
on pouvait vraiment parler de coup de théâtre - en tout cas, pour
moi, mais pour beaucoup d’autres également, je crois -, et cette
information a radicalement fait basculer mon point de vue au sujet
des nanotechnologies. Elle m’a renvoyé à Engines of Creation. Me
replongeant dans le travail de Drexler plus dix ans après, j’ai
été consterné du peu de cas que j’avais fait d’une très longue section
du livre intitulée « Espérances et périls », où figurait notamment
un débat autour du thème des nanotechnologies comme potentiels «
engins de destruction ».
De fait, en relisant aujourd’hui ces mises en garde, je suis frappé
de l’apparente naïveté de Drexler dans certaines de ses propositions
préventives ; j’estime aujourd’hui les risques infiniment plus graves
que lui-même à l’époque dans cet ouvrage (Drexler, ayant anticipé
et exposé maints problèmes techniques et politiques liés aux nanotechnologies,
a lancé le Foresight Institute à la fin des années 80, pour aider
la société à se préparer aux technologies de pointe - en particulier,
les nanotechnologies).
Selon toutes probabilités, la découverte capitale devant mener
aux assembleurs interviendra dans les vingt prochaines années. L’électronique
moléculaire, domaine le plus récent des nanotechnologies, où des
molécules isolées constituent des éléments du circuit, devrait rapidement
progresser et générer de colossaux bénéfices au cours de la décennie
à venir, déclenchant ainsi un investissement massif et croissant
dans toutes les nanotechnologies.
Hélas, comme pour la technologie du nucléaire, l’usage des nanotechnologies
à des fins de destruction est significativement plus aisé que son
usage à des fins constructives. Celles-ci ont des applications militaires
et terroristes très claires. Au surplus, il n’est pas nécessaire
d’être animé de pulsions suicidaires pour libérer un « nanodispositif
» de destruction massive : sa vocation peut être la destruction
sélective, avec pour seule cible, par exemple, une zone géographique
précise ou un groupe d’individus génétiquement distincts.
L’une des conséquences immédiates du commerce faustien donnant
accès à l’immense pouvoir que confèrent les nanotechnologies, c’est
la menace redoutable qu’elles font peser sur nous : celle d’une
possible destruction de la biosphère, indispensable à toute vie.
Drexler l’expose dans les termes suivants :
« Des “plantes” à “feuilles” guère plus efficaces que nos capteurs
solaires actuels pourraient vaincre les plantes réelles et envahir
la biosphère d’un feuillage noncomestible. Des “bactéries” omnivores
résistantes pourraient vaincre les vraies bactéries, se disséminer
dans l’air comme du pollen, se reproduire rapidement, et, en l’espace
de quelques jours, réduire à néant la biosphère. Des “réplicateurs”
dangereux pourraient aisément s’avérer trop résistants, trop petits
et trop prompts à se reproduire pour être stoppés - en tout cas,
si nous ne prenons pas les devants. Nous avons déjà bien du mal
à maîtriser les virus et les drosophiles. Cette menace, les experts
en nanotechnologies l’ont surnommée “gray goo problem”. Si rien
n’indique que des nuées de réplicateurs incontrôlés formeraient
automatiquement une masse grise [“grey”] et gluante [“goo”], cette
appellation souligne que des réplicateurs doués d’une telle puissance
dévastatrice s’avéreraient, je le crois, moins engageants qu’une
simple espèce de mauvaise herbe. Certes, ils peuvent se révéler
supérieurs du point de vue de leur degré d’évolution, mais cela
ne suffit pas à en faire des utiles. Le “gray goo problem” laisse
clairement apparaître une chose : s’agissant des assembleurs et
de leur reproduction, nous ne pouvons pas nous permettre certains
accidents. »
Finir englués dans une masse grise et visqueuse serait assurément
une fin déprimante à notre aventure sur la Terre - de loin pire
que le simple feu ou la glace. En outre, elle pourrait survenir
à la suite d’un simple, houps !, incident de laboratoire [11].
C’est avant tout le pouvoir destructeur de l’autoreproduction dans
le domaine de la génétique, des nanotechnologies et de la robotique
(GNR) qui devrait nous inciter à marquer une pause. L’autoreproduction
est le modus operandi du génie génétique, lequel utilise la machinerie
de la cellule pour dupliquer ses propres structures, et constitue
le risque de « gray goo » numéro un sous-jacent aux nanotechnologies.
Les scénarios, dans la veine du Borg, de robots pris de folie se
reproduisant ou mutant pour se soustraire aux contraintes éthiques
imposées par leur concepteur sont aujourd’hui des classiques du
livre et du film de science-fiction. Il n’est d’ailleurs pas exclu
qu’en définitive, le phénomène d’autoreproduction se révèle plus
fondamental que nous ne le pensions, et que, de ce fait, la maîtrise
en soit plus difficile, voire impossible. Un article récent de Stuart
Kauffman publié dans Nature, intitulé « Autoreproduction : même
les peptides s’y mettent », se penche sur une découverte établissant
qu’un polypeptide de 32 aminoacides a la capacité d’« autocatalyser
sa propre synthèse ». A ce jour, même si on évalue mal la portée
exacte d’une telle capacité, Kauffman observe que cela pourrait
ouvrir « une voie de systèmes moléculaires autoreproductifs sur
une base significativement plus étendue que ne l’établissent les
paires de base de Watson-Crick [12] ».
En vérité, voilà des années que nous sommes alertés des dangers
inhérents à une vulgarisation des GNR, un savoir qui, à lui seul,
rend possible la destruction massive. Mais ces avertissements ont
été peu relayés, et les débats publics pas à la hauteur. Il n’y
aucun profit à escompter d’une sensibilisation du public.
Les technologies nucléaires, biologiques et chimiques (NBC) utilisées
dans les armes de destruction massive du XXe siècle, qui étaient
et restent à vocation prioritairement militaire, sont développées
dans les laboratoires d’Etat. Contraste violent, les technologies
GNR du XXIe siècle se distinguent par des usages clairement commerciaux
et sont quasi exclusivement développées par des entreprises du secteur
privé. A l’ère de l’affairisme triomphant, la technologie - flanquée
de la science, dans le rôle de la servante - est en train de produire
toute une gamme d’inventions pour ainsi dire magiques, sources de
bénéfices faramineux, sans commune mesure avec ce que nous avons
connu jusqu’ici. Nous caressons avec agressivité les rêves de ces
nouvelles technologies au sein d’un système désormais indiscuté,
aux motivations financières et pressions concurrentielles multiples
: celui d’un capitalisme planétaire.
« C’est la première fois dans l’histoire de notre planète qu’une
espèce, quelle qu’en soit la nature, devient un péril pour elle-même
- et pour un très grand nombre d’autres - à travers ses propres
actes délibérés. Cela pourrait bien être une progression classique,
inhérente à de nombreux mondes : une planète, tout juste formée,
tourne placidement autour de son étoile ; la vie apparaît doucement
; une procession kaléidoscopique de créatures évolue ; l’intelligence
émerge, accroissant de manière significative la capacité de survie
- en tout cas, jusqu’à un certain point ; et puis, la technologie
est inventée. L’idée se fait jour qu’il existe certaines choses
telles que les lois de la nature, qu’il est possible de vérifier
ces lois par l’expérimentation, et que l’intelligence des ces lois
permet aussi bien de créer la vie que de la supprimer, à des échelles
sans précédent dans un cas comme dans l’autre. La science, reconnaissent-ils,
confère des pouvoirs immenses. En un éclair, ils inventent des machines
capables de changer la face du monde. Certaines civilisations voient
plus loin, déterminent ce qu’il est bon de faire et ne pas faire,
et traversent victorieusement le temps des périls. D’autres, moins
chanceuses ou moins prudentes, périssent. »
Ces lignes, nous les devons à Carl Sagan, décrivant en 1994 dans
Pale Blue Dot sa vision du futur de l’espèce humaine dans l’espace.
Ce n’est qu’aujourd’hui que je réalise combien ses vues étaient
pénétrantes, et combien sa voix me manque et continuera de me manquer
cruellement. De toutes ses contributions, servies par une éloquence
digne d’éloges, le bon sens n’était pas la moindre ; une qualité
qui, au même titre que l’humilité, semble faire défaut à maints
éminents promoteurs des technologies du XXIe siècle.
Enfant, je me souviens que ma grand-mère se déclarait farouchement
opposée au recours systématique aux antibiotiques. Infirmière dès
avant la première guerre mondiale, elle se distinguait par une attitude
pleine de bon sens qui lui faisait dire que, sauf absolue nécessité,
les antibiotiques étaient mauvais pour la santé.
Non pas qu’elle fût opposée au progrès. En presque soixante-dix
ans passés au chevet des malades, elle a été témoin de maintes avancées
; mon grand-père, diabétique, a largement profité de l’amélioration
des traitements qui sont apparus de son vivant. Mais, j’en suis
sûr, à l’image d’un grand nombre d’individus pondérés, elle verrait
sans doute aujourd’hui une preuve d’arrogance rare dans nos tentatives
de concevoir une « espèce de substitution » robotique, quand, à
l’évidence, nous avons déjà beaucoup de mal à faire fonctionner
des choses relativement simples, et tant de difficultés à nous gérer
nous-mêmes - quand ce n’est pas à nous comprendre.
Je réalise aujourd’hui qu’elle avait conscience de l’ordre du vivant,
et de la nécessité de s’y conformer en le respectant. Allant de
pair avec ce respect, vient une nécessaire humilité, humilité dont,
avec notre présomption de début de XXIe siècle, nous manquons pour
notre plus grand péril. Ancré dans un tel respect, le point de vue
du bon sens voit souvent juste, et cela avant d’être scientifiquement
établi. L’évidente fragilité et les insuffisances des systèmes créés
par la main de l’homme devraient nous inciter à marquer une pause
; la fragilité des systèmes sur lesquels j’ai personnellement travaillé
me rappelle, effectivement, ce devoir d’humilité.
Nous aurions dû tirer un enseignement de la fabrication de la première
bombe atomique et la course aux armements qui en a découlé. Nous
ne nous sommes guère distingués à l’époque, et les parallèles avec
la situation actuelle sont troublants.
L’effort qui devait déboucher sur la fabrication de la première
bombe atomique fut dirigé par un brillant physicien nommé Julius
Robert Oppenheimer. Bien que naturellement peu enclin à la politique,
cet homme a toutefois pris une conscience aiguë de ce qu’il tenait
pour une grave menace : celle que faisait peser sur la civilisation
occidentale le Troisième Reich. Un péril d’autant plus légitime
qu’Hitler était peut-être en mesure de se procurer un arsenal nucléaire.
Galvanisé par cette préoccupation, fort de son esprit brillant,
de sa passion pour la physique et de son charisme de leader, Oppenheimer
s’est transporté à Los Alamos et a conduit un effort rapide et concluant
à la tête d’une incroyable brochette de grands esprits, effort qui,
en peu de temps, a permis d’inventer la bombe.
Ce qui est frappant, c’est que cet effort se soit poursuivi aussi
naturellement dès lors que l’impulsion d’origine n’y était plus.
Dans une réunion qui s’est tenue peu de temps après la victoire
des Alliés en Europe, et à laquelle participaient certains physiciens
d’avis qu’il faudrait peut-être stopper cet effort, Oppenheimer
s’est déclaré au contraire en faveur de sa poursuite. La raison
invoquée en était quelque peu curieuse : ce n’était pas la peur
des pertes terribles qu’engendrerait la conquête du Japon, mais
le fait que cela donnerait aux Nations unies, alors sur le point
d’être créées, une longueur d’avance s’agissant de l’armement nucléaire.
Plus vraisemblablement, la poursuite du projet s’explique par l’accélération
dynamique du processus : le premier test atomique, Trinity, était
à portée de la main.
On sait que, dans la préparation de ce premier test, les physiciens
ont fait l’impasse sur un grand nombre de dangers possibles. Leur
crainte initiale, sur la base d’un calcul d’Edward Teller, était
qu’une explosion atomique ne mette à feu l’atmosphère. Une estimation
revue et corrigée a ensuite ramené cette menace d’anéantissement
de la planète à une probabilité de un trois millionième. (Teller
prétend qu’ultérieurement, il est parvenu à totalement écarter le
risque d’un embrasement de l’atmosphère.) Reste qu’Oppenheimer s’inquiétait
suffisamment de l’impact de Trinity pour mettre au point une possible
évacuation de la partie sud-est du Nouveau-Mexique. Et, bien sûr,
existait la menace d’une course aux armements nucléaires.
Moins d’un mois après ce premier test concluant, deux bombes atomiques
ont détruit Hiroshima et Nagasaki. Certains scientifiques avaient
suggéré, plutôt que d’effectivement larguer la bombe sur des villes
japonaises, de se borner à en faire la démonstration - mais en vain.
Ils faisaient prévaloir qu’une fois la guerre achevée, les chances
de contrôle des armements s’en trouveraient accrues. Le souvenir
de la tragédie de Pearl Harbour encore vivace dans les mémoires
américaines, il eût été très difficile au président Truman d’ordonner
une simple démonstration de la puissance des armes, plutôt que d’y
recourir effectivement comme il l’a fait ; le désir de rapidement
en finir avec la guerre et d’épargner les vies qu’une invasion du
Japon aurait fatalement prises était trop brûlant. Il n’en demeure
pas moins que le facteur prépondérant était probablement fort simple
: comme l’a ultérieurement déclaré le physicien Freeman Dyson, «
la raison pour laquelle on l’a lâchée est toute simple : personne
n’a été assez courageux, ou assez avisé, pour dire non ».
Il est important de réaliser l’état de choc dans lequel se sont
trouvés les physiciens au lendemain du bombardement d’Hiroshima,
le 6 août 1945. Ils font état de vagues d’émotions successives :
tout d’abord, un sentiment d’accomplissement devant le bon fonctionnement
de la bombe ; ensuite un sentiment d’horreur devant le nombre de
tués ; et enfin, le sentiment aigu que plus jamais, en aucun cas,
une autre bombe ne devrait être lâchée. Il n’en demeure pas moins
qu’un second largage a eu lieu, sur Nagasaki, et cela trois jours
seulement après Hiroshima.
En novembre 1945, trois mois après les bombardements nucléaires,
Oppenheimer, résolument aligné sur les positions du corps scientifique,
s’exprimait en ces termes : « Nul ne peut se prétendre scientifique
s’il n’est convaincu du caractère intrinsèquement bénéfique de la
connaissance du monde pour l’humanité, ni du pouvoir qu’elle confère.
Vous ne vous servez de ce pouvoir que pour divulguer cette connaissance,
et vous devez être prêt à en assumer pleinement les conséquences.
»
Par la suite, aux côtés d’autres, Oppenheimer a travaillé sur le
rapport Acheson-Lilienthal, lequel, pour reprendre les termes de
Richard Rhodes dans son récent ouvrage Visions of Technology, «
permettait d’empêcher une course aux armements atomiques clandestine,
sans recourir à un gouvernement mondial armé » ; leur suggestion
consistait en quelque sorte à ce que les Etats-nations renoncent
aux armements nucléaire au profit d’une instance supranationale.
Cette proposition a débouché sur le plan Baruch, qui a été soumis
aux Nations unies en juin 1946, mais ne fut jamais adopté (peut-être
du fait que, comme le suggère Rhodes, Bernard Baruch avait « insisté
pour alourdir le plan avec des mesures coercitives », le vouant
dès lors à un échec inéluctable, même si, « de toute façon, il aurait
inévitablement ou presque été rejeté par la Russie stalinienne »).
D’autres tentatives pour promouvoir des étapes significatives de
globalisation de la puissance atomique, visant à éviter une course
aux armements, ont rencontré l’hostilité conjointe tant des milieux
politiques et des citoyens Américains, méfiants, que des Soviétiques,
qui l’étaient tout autant. C’est ainsi que, très vite, la chance
d’éviter la course aux armements est tombée à l’eau.
Deux ans plus tard, il semble qu’Oppenheimer ait franchi un nouveau
palier. En 1948, il s’exprimait en ces termes : « Au sens le plus
strict du mot, qu’aucune trivialité, aucun humour ni aucun sous-entendu
ne pourra jamais totalement balayer, les physiciens ont péché. Et
ce péché restera gravé en eux pour toujours. [13] »
En 1949, les Soviétiques font exploser une bombe atomique. Dès
1955, les Etats-Unis procèdent à des essais atmosphériques de bombes
à hydrogène largables d’avion. L’Union soviétique fait de même.
La course aux armements est amorcée.
Il y a près de vingt ans, dans le documentaire intitulé The Day
After Trinity, Freeman Dyson a résumé l’attitude de certains scientifiques
qui nous a conduits au gouffre nucléaire :
« Je l’ai personnellement ressentie. Cette fascination des armes
atomiques. Pour un chercheur, leur pouvoir d’attraction est irrésistible.
De sentir cette énergie qui embrase les étoiles, là, au bout de
vos doigts, de la libérer et de vous sentir le maître du monde.
De faire des miracles, de catapulter dans l’espace des tonnes de
roches, par millions. Cela, c’est quelque chose qui vous donne l’illusion
d’un pouvoir sans limites, et, d’une certaine façon, tous nos maux
en découlent. Cette chose, appelons-la arrogance technologique,
c’est plus fort que vous. Vous vous apercevez du pouvoir inouï de
l’esprit, et c’est irrésistible. [14] »
Aujourd’hui, comme alors, nous sommes les inventeurs de nouvelles
technologies et les tenants d’un futur imaginé, mus cette fois,
dans un contexte de concurrence planétaire, par la perspective de
gains financiers considérables, et cela en dépit de dangers évidents,
peu soucieux d’envisager à quoi pourrait ressembler une tentative
de vie dans un monde qui n’est autre que l’aboutissement réaliste
de ce que nous sommes en train d’inventer et d’imaginer.
Depuis 1947, The Bulletin of Atomic Scientists fait figurer sur
sa couverture une « horloge du Jugement dernier ». Ce baromètre
reflétant les variations de la situation internationale donne depuis
plus de cinquante ans une estimation de la menace nucléaire relative
qui pèse sur nous. A quinze reprises, les aiguilles de cette horloge
ont bougé. Calées sur minuit moins neuf, elles indiquent aujourd’hui
une menace continuelle et réelle de l’arsenal atomique. La récente
entrée de l’Inde et du Pakistan dans le club des puissances nucléaires
porte un coup sévère à l’objectif de non-prolifération, comme l’a
souligné le mouvement des aiguilles, lesquelles, en 1998, se sont
rapprochées de l’heure fatidique.
A ce jour, quelle est au juste la gravité de ce danger qui pèse
sur nous, pas exclusivement en termes d’armes atomiques, mais compte
tenu de l’ensemble de ces technologies ? Quels sont, concrètement,
les risques d’extinction qui nous menacent ?
Le philosophe John Leslie, qui s’est penché sur la question, évalue
le risque minimum d’extinction de l’espèce humaine à 30% [15]. Ray
Kurzweil, quant à lui, estime que « notre chance de nous en sortir
est supérieure à la moyenne », en précisant au passage qu’on lui
a « toujours reproché d’être un optimiste ». Non seulement de telles
estimations sont peu engageantes, mais elles écartent les événements,
multiples et horribles, qui préluderaient à l’extinction.
Face à de telles assertions, certains individus dignes de foi suggèrent
tout simplement de se redéployer loin de la Terre, et cela dans
les meilleurs délais. Nous coloniserions la galaxie au moyen des
sondes spatiales de von Neumann, qui, bondissant d’un système stellaire
à l’autre, s’autoreproduisent en quittant les lieux. Franchir cette
étape sera un impératif incontournable dans les cinq milliards d’années
à venir (voire plus tôt, si notre système solaire devait subir l’impact
cataclysmique de la collision de notre galaxie avec celle d’Andromède,
prévue d’ici trois milliards d’années) ; mais si l’on prend au mot
Kurzweil et Moravec, cette migration pourrait se révéler nécessaire
d’ici le milieu du siècle.
Quelles sont, ici, les implications morales en jeu ? Si, pour la
survie de l’espèce, il nous faut quitter la Terre dans un futur
aussi proche, qui assumera la responsabilité de tous ceux qui resteront
à quai (la plupart d’entre nous, en fait) ? Et quand bien même nous
nous éparpillerions dans les étoiles, n’est-il pas vraisemblable
que nous emmènerions nos problèmes avec nous, ou que nous nous apercevions
ultérieurement que ceux-ci nous ont suivis ? Le destin de notre
espèce sur la Terre semble inextricablement corrélé à notre destin
dans la galaxie.
Une autre idée consiste à ériger une série de boucliers préventifs
contre les diverses technologies à risque. L’initiative de défense
stratégique [16] proposée par l’administration Reagan, se voulait
une tentative de bouclier de ce type pour parer à la menace d’une
attaque nucléaire de l’Union soviétique. Mais, comme l’a observé
Arthur C. Clarke, dans le secret des discussions entourant le projet,
« s’il est concevable, moyennant des coûts faramineux, de bâtir
des systèmes de défense locale qui ne laisseraient passer “que”
quelques centièmes des missiles balistiques, l’idée racoleuse d’un
parapluie couvrant les Etats-Unis en totalité était essentiellement
une sottise. Luis Alvarez, peut-être le plus grand chercheur en
physique expérimentale de ce siècle, m’a fait remarquer que les
promoteurs de projets de ce type étaient “des individus extrêmement
brillants, mais dénués de bon sens” ».
« Quand je lis dans ma boule de cristal souvent bien opaque, poursuit
Arthur C. Clarke, je n’exclus pas la possibilité qu’une défense
intégrale puisse être mise au point d’ici un siècle ou deux. Mais
la technologie que cela supposerait générerait des sous-produits
si redoutables que, dès lors, plus personne ne songerait à perdre
son temps avec des choses aussi primitives que des missiles balistiques.
[17] » Dans Engines of Creation, Eric Drexler proposait la construction
d’un bouclier nanotechnologique actif - une sorte de système immunitaire
pour la biosphère - nous protégeant des « réplicateurs » dangereux
de toutes sortes, susceptibles de s’échapper des laboratoires, ou
de naître d’éventuelles inventions malveillantes. Mais le bouclier
qu’il propose est en lui-même extrêmement dangereux : rien, en effet,
ne pourrait l’empêcher de développer des problèmes « auto-immunes
» et d’attaquer lui-même la biosphère [18].
Des difficultés similaires vont de pair avec la construction de
boucliers destinés à nous protéger de la robotique et du génie génétique.
Ces technologies sont trop puissantes pour qu’on puisse s’en prémunir
dans les délais ; au surplus, quand bien même le déploiement de
boucliers défensifs serait envisageable, les effets collatéraux
seraient au moins aussi redoutables que les technologies dont ils
étaient censés nous garantir.
En conséquence, toutes ces possibilités sont soit peu souhaitables,
soit irréalisables, voire les deux à la fois. La seule alternative
réaliste, à mes yeux, est d’y renoncer, de restreindre la recherche
dans le domaine des technologies qui sont trop dangereuses, en posant
des limites à notre quête de certains savoirs.
Oui, je sais, le savoir est une chose bénéfique, et il en va de
même s’agissant de la quête de vérités nouvelles. Aristote ouvre
La Métaphysique avec ce constat tout simple : « Tous les hommes
désirent naturellement savoir. » Depuis longtemps, nous avons reconnu
comme une valeur fondamentale de notre société le libre accès à
l’information, et convenu que les problèmes surgissent dès lors
qu’on tente d’en limiter l’accès et d’en brider le développement.
Dernièrement, nous en sommes arrivés à placer la connaissance scientifique
sur un piédestal.
Mais si, dorénavant, malgré des précédents historiques avérés,
le libre accès et le développement illimité du savoir font clairement
peser sur nous tous une menace d’extinction, alors le bon sens exige
que ces convictions, fussent-elles fondamentales et fermement ancrées,
soient examinées de nouveau.
Nietzsche, à la fin du XIXe siècle, non seulement nous a avertis
que « Dieu est mort », mais en outre que « [...] la foi en la science,
cette foi qui est incontestable, ne peut pas avoir tiré son origine
d’un pareil calcul d’utilité, au contraire elle s’est formée malgré
la démonstration constante de l’inutilité et du danger qui résident
dans la “volonté de vérité”, dans la “vérité à tout prix” [19] ».
C’est précisément ce danger - les conséquences de notre quête de
vérité - qui nous menace aujourd’hui de tout son poids. La vérité
que recherche la science peut incontestablement passer pour un dangereux
substitut de Dieu si elle est susceptible de conduire à notre extinction.
Si, en temps qu’espèce, nous pouvions nous accorder sur nos aspirations,
sur ce vers quoi nous allons, et sur la nature de nos motivations,
alors nous bâtirions un futur significativement moins dangereux.
Alors nous pourrions comprendre ce à quoi il est non seulement possible,
mais souhaitable, de renoncer. Autrement, on imagine aisément une
course aux armements s’engager autour des technologies GNR, comme
cela s’est produit au XXe siècle autour des technologies NBC. Le
plus grand danger réside peut-être là, dans la mesure où, une fois
la machine lancée, il est très difficile de l’arrêter. Cette fois-ci
- contrairement à l’époque du projet Manhattan -, nous ne sommes
pas en guerre, face à un ennemi implacable constituant une menace
pour notre civilisation ; cette fois, nous sommes mus par nos habitudes,
nos désirs, notre système économique et par la course au savoir.
Nous souhaiterions tous, je le crois, que notre chemin s’inspire
de valeurs collectives, éthiques et morales. Si, au cours des derniers
millénaires, nous avions acquis une sagesse collective plus profonde,
alors engager un dialogue à cette fin serait plus aisé, et cette
puissance formidable sur le point de déferler serait loin d’être
aussi préoccupante.
On pourrait penser que l’instinct de conservation nous conduise
à un tel dialogue. Or si, en tant qu’individu, nous manifestons
clairement ce désir, en revanche notre comportement collectif en
tant qu’espèce semble jouer en notre défaveur. En composant la menace
nucléaire, nous nous sommes souvent comportés de façon malhonnête,
tant vis-à-vis de nous-mêmes que les uns envers les autres, démultipliant
ainsi grandement les risques. Raisons politiques, choix délibéré
de ne pas voir plus avant, ou comportement mû par des peurs irrationnelles
découlant des graves menaces qui pesaient alors sur nous, je l’ignore,
mais cela ne présage rien de bon.
Que les nouvelles boîtes de Pandore, génétique, nanotechnologies
et robotique, soient entrouvertes, nul ne semble s’en inquiéter.
On ne referme pas le couvercle sur des idées ; contrairement à l’uranium
ou au plutonium, une idée n’a besoin ni d’être extraite, ni d’être
enrichie, et on peut la dupliquer librement. Une fois lâchée, on
ne l’arrête plus. Churchill, dans un compliment ambigu resté célèbre,
observait que les Américains et leurs dirigeants « finissent toujours
par agir honorablement, une fois qu’ils ont bien examiné chacune
des autres solutions ». Reste qu’en ce cas précis, il convient d’intervenir
plus en amont, dans la mesure où n’agir honorablement qu’en dernier
recours pourrait bien nous condamner.
Thoreau l’a dit, « ce n’est pas nous qui prenons le train, c’est
le train qui nous prend ». Et c’est là tout l’enjeu maintenant.
De fait, la vraie question est de savoir lequel dominera l’autre,
et si nous survivrons à nos technologies.
Nous sommes propulsés dans ce nouveau siècle sans carte, sans maîtrise,
sans freins. Sommes-nous déjà engagés trop avant dans cette voie
pour corriger notre trajectoire ? Je ne le pense pas ; pour autant,
aucun effort n’a encore été fourni en ce sens, et nos dernières
chances de reprendre le contrôle, c’est-à-dire notre point de non-retour,
approchent rapidement. Nous disposons déjà de nos premiers animaux
domestiques de synthèse [20], et certaines techniques de génie génétique
sont désormais disponibles sur le marché ; quant à nos techniques
à l’échelle « nano », elles progressent rapidement.
Si leur développement suppose un certain nombre d’étapes, le palier
ultime d’une démonstration n’est pas forcément quelque chose d’aussi
énorme et aussi difficile que le projet Manhattan ou l’essai Trinity.
La découverte capitale de la capacité d’autoreproduction incontrôlée
dans le domaine de la robotique, du génie génétique ou des nanotechnologies
pourrait survenir brutalement, renouvelant l’effet de surprise du
jour où est tombée la nouvelle du clonage d’un mammifère.
Il n’en demeure pas moins qu’il nous reste, je le crois, de solides
et puissantes raisons d’espérer. Les efforts déployés pour régler
la question des armes de destruction massive au cours du siècle
dernier fournissent un exemple éclatant de renonciation qui mérite
attention : l’abandon unilatéral et inconditionnel par les Etats-Unis
du développement des armes biologiques. Ce désengagement fait suite
à un double constat : d’une part, un effort considérable doit être
fourni pour mettre au point ces armes redoutables ; d’autre part,
elles peuvent aisément être dupliquées et tomber entre les mains
de nations belliqueuses ou de groupes terroristes.
Tout cela a clairement laissé apparaître que développer ces armes
ne ferait qu’ajouter de nouvelles menaces, et qu’y renoncer accroîtrait
notre sécurité.
Cet engagement solennel à s’interdire le recours à l’arme bactériologique
et chimique a été consigné dans la Biological Weapons Convention
(BWC) [21], en 1972, et dans la Chemical Weapons Convention (CWC)
[22], en 1993 [23].
Quant à la menace persistante et assez considérable des armes atomiques,
sous le poids de laquelle nous vivons aujourd’hui depuis plus de
cinquante ans, il ressort clairement du récent rejet par le Sénat
américain du traité d’interdiction globale des essais nucléaires
que se désengager des armes atomiques ne sera pas une tâche politiquement
facile. Mais la fin de la guerre froide nous offre une possibilité
exceptionnelle de prévenir une course aux armements multipolaire.
Dans la foulée de l’abandon des BWC et des CWC, arriver à abolir
les armements atomiques pourrait nous inciter à renoncer aux technologies
dangereuses (de fait, commencer par se débarrasser de cent armes
atomiques disséminées de par le monde - approximativement, la puissance
de destruction totale de la deuxième guerre mondiale ; une tâche
considérablement moins lourde - suffirait à éliminer cette menace
d’extinction [24].
Vérifier la réalité du désengagement sera un problème délicat,
mais pas insoluble. Par chance, un important travail similaire a
déjà été accompli dans le contexte des BWC et d’autres traités.
Notre tâche essentielle consistera à appliquer cela à des technologies
qui, par nature, sont résolument plus commerciales que militaires.
Se fait ici sentir un besoin substantiel de transparence, dans la
mesure où la difficulté de la vérification est directement proportionnelle
à la difficulté de distinguer une activité abandonnée d’une activité
légitime.
Je pense honnêtement qu’en 1945, la situation était plus simple
que celle à laquelle nous nous trouvons aujourd’hui confrontée :
il était relativement simple de tracer la frontière entre les technologies
nucléaires à usage commercial et militaire. En outre, le contrôle
était facilité par la nature même des tests atomiques et la facilité
avec laquelle on pouvait mesurer le degré de radioactivité. La recherche
d’applications militaires pouvait être menée dans des laboratoires
gouvernementaux tels que Los Alamos, et les résultats tenus secrets
le plus longtemps possible.
Les technologies GNR ne se divisent pas clairement en deux familles
distinctes, la militaire et la commerciale ; compte tenu de leur
potentiel sur le marché, on a peine à imaginer que leur développement
puisse rester cantonné à des laboratoires d’Etat. Dans le contexte
de leur développement commercial à grande échelle, contrôler le
caractère effectif du désengagement exigera l’instauration d’un
régime de vérification similaire à celui des armes biologiques,
mais à une échelle sans précédent à ce jour.
Inéluctablement, le fossé va se creuser : d’un côté, la volonté
de protéger sa vie privée ainsi que certaines données confidentielles,
et de l’autre, la nécessité que ces mêmes informations restent accessibles
dans l’intérêt de tous. Devant cette atteinte à notre vie privée
et à notre marge de manœuvre, nous nous heurterons sans aucun doute
à de fortes résistances.
Le contrôle de l’arrêt effectif de certaines technologies GNR devra
intervenir sur des sites tant virtuels que physiques. Dans un monde
de données confidentielles, l’enjeu crucial consistera à rendre
acceptable la nécessaire transparence, vraisemblablement en produisant
des formes renouvelées de protection de la propriété intellectuelle.
La vérification d’un tel respect exigera en outre des scientifiques
et ingénieurs qu’ils adoptent un code de conduite éthique rigoureux,
similaire au serment d’Hippocrate, et qu’ils aient le courage de
rendre public tout manquement, et cela aussi souvent que nécessaire,
quand bien même il faudrait en payer le prix fort sur le plan personnel.
Ceci répondrait - cinquante ans après Hiroshima - à l’appel lancé
par Hans Bethe, lauréat du prix Nobel, l’un des plus vénérables
membres du projet Manhattan encore en vie, appelant les scientifiques
à « cesser et se désister de toute activité de conception, développement,
amélioration, et fabrication d’armes nucléaires et autres armes
au potentiel de destruction massive [25] ». Au XXIe siècle, cela
supposera vigilance et responsabilité personnelle de la part de
ceux qui pourraient travailler tant sur les technologies NBC que
GNR, pour prévenir le déploiement d’armes et d’ingénierie de destruction
massive accessible par la seule connaissance.
Thoreau a également dit que nous ne serons « riches qu’à proportion
du nombre de choses auxquelles nous pourrons nous permettre de renoncer
». Chacun d’entre nous aspire au bonheur, mais est-il bien raisonnable
d’encourir un si fort risque de destruction totale pour accumuler
encore plus de savoir, et encore plus de biens ? Le bon sens pose
qu’il y a une limite à nos besoins matériels. Certains savoirs sont
décidément trop dangereux : mieux vaut y renoncer.
Nous ne devrions pas non plus caresser des rêves de quasi-immortalité
sans, au préalable, en estimer les coûts, et sans prendre en compte
un risque d’extinction grandissant. L’immortalité constitue peut-être
l’utopie originelle ; pour autant, elle n’est assurément pas la
seule.
J’ai récemment eu le privilège de faire la connaissance du distingué
écrivain et érudit Jacques Attali, dont le livre Lignes d’horizons
(Millennium, dans sa traduction anglaise) m’a en partie inspiré
l’approche Java et Jini des effets pervers de la technologie informatique
des années à venir. Dans son dernier ouvrage, Fraternités, Attali
explique comment, au fil du temps, nos utopies se sont transformées
:
"A l’aube des sociétés, les hommes, sachant que la perfection
n’appartenait qu’à leurs dieux, ne voyaient leur passage sur Terre
que comme un labyrinthe de douleur au bout duquel se trouvait une
porte ouvrant, via la mort, sur la compagnie des dieux et sur l’Eternité.
Avec les Hébreux puis avec les Grecs, des hommes osèrent se libérer
des exigences théologiques et rêver d’une Cité idéale où s’épanouirait
la Liberté. D’autres, en observant l’évolution de la société marchande,
comprirent que la liberté des uns entraînerait l’aliénation des
autres, et ils cherchèrent l’Egalité."
Jacques Attali m’a permis de comprendre en quoi ces trois objectifs
utopiques existent en tension dans notre société actuelle. Il poursuit
avec l’exposé d’une quatrième utopie, la fraternité, dont le socle
est l’altruisme. En elle-même, la fraternité allie le bonheur individuel
au bonheur d’autrui, offrant la promesse d’une croissance autonome.
Cela a cristallisé en moi le problème que j’avais avec le rêve de
Kurzweil. Une approche technologique de l’Eternité - la quasi-immortalité
que nous promet la robotique - n’est pas forcément l’utopie la plus
souhaitable. En outre, caresser ce genre de rêve comporte des dangers
évidents. Peut-être devrions nous reconsidérer nos choix d’utopies.
Vers quoi nous tourner pour trouver une nouvelle base éthique susceptible
de nous guider ? J’ai trouvé les idées qu’expose le dalaï-lama dans
Sagesse ancienne, monde moderne [26] très utiles à cet égard. Comme
cela est largement admis mais peu mis en pratique, le dalaï-lama
fait valoir que le plus important pour nous est de conduire notre
vie dans l’amour et la compassion pour autrui, et que nos sociétés
doivent développer une notion plus forte de responsabilité universelle
et d’interdépendance ; il propose un principe pratique de conduite
éthique destiné tant à l’individu qu’aux sociétés, lequel s’accorde
avec l’utopie de fraternité d’Attali.
Au surplus, souligne le dalaï-lama, il nous faut comprendre ce
qui rend l’homme heureux, et se rendre à l’évidence : la clé n’en
est ni le progrès matériel, ni la recherche du pouvoir que confère
le savoir. En clair, il y a des limites à ce que science et recherche
scientifique, seules, peuvent accomplir.
Notre notion occidentale du bonheur semble nous venir des Grecs,
qui en donnaient comme définition : « vivre de toutes ses forces,
guidé par des critères d’excellence, une vie leur permettant de
se déployer [27] ».
Certes, il nous faut trouver des enjeux chargés de sens et continuer
d’explorer de nouvelles voies si, quoi qu’il advienne, nous voulons
trouver le bonheur. Reste que, je le crois, nous devons trouver
de nouveaux exutoires à nos forces créatives, et sortir de la culture
de la croissance perpétuelle. Si, des siècles durant, cette croissance
nous a comblés de bienfaits, elle ne nous a pas pour autant apporté
le bonheur parfait. L’heure est venue de le comprendre : une croissance
illimitée et sauvage par la science et la technologie s’accompagne
fatalement de dangers considérables.
Plus d’un an s’est aujourd’hui écoulé depuis ma première rencontre
avec Ray Kurzweil et John Searle. Je trouve autour de moi des raisons
d’espérer dans les voix qui s’élèvent en faveur du principe de précaution
et de désengagement, et dans ces individus qui, comme moi, s’inquiètent
de la situation difficile dans laquelle nous nous trouvons. J’éprouve
moi aussi un sentiment de responsabilité personnelle accru - non
pas pour le travail réalisé jusqu’ici, mais pour celui qui pourrait
me rester à accomplir, au confluent des sciences.
Cependant, un grand nombre de ceux qui ont connaissance des dangers
semblent se tenir étrangement cois. Lorsqu’on les presse, ils ripostent
à coups de « cela n’est pas une nouveauté » - comme si l’on pouvait
se satisfaire de la seule conscience du danger latent. « Les universités
sont pleines de bioéthiciens qui examinent ces trucs à longueur
de journée », me disent-ils. Ou encore, « tout cela a déjà été dit
et écrit, et par des experts ».
Et enfin : « Ces craintes et ces raisonnements, c’est du déjà vu
», râlent-ils.
J’ignore où ces gens-là dissimulent leurs peurs. Au titre d’architecte
de systèmes complexes, je descends dans cette arène avec des yeux
de généraliste. Mais pour autant, devrais-je moins m’alarmer ? J’ai
conscience qu’on a beaucoup écrit, dit et enseigné à ce sujet, et
avec quel panache. Mais cela a-t-il atteint les gens ? Cela signifie-t-il
que nous pouvons ignorer les dangers qui frappent aujourd’hui à
notre porte ?
Il ne suffit pas de savoir, encore faut-il agir. Le savoir est
devenu une arme que nous retournons contre nous-mêmes. Peut-on encore
en douter ?
Les expériences des chercheurs du nucléaire laissent clairement
apparaître qu’il est temps d’assumer la pleine responsabilité de
nos actes, que les choses peuvent s’emballer, et qu’un processus
peut échapper à notre maîtrise et devenir autonome. Il se peut que,
comme eux, sans même avoir le temps de nous en apercevoir, nous
déclenchions des problèmes insurmontables. C’est maintenant qu’il
faut agir si nous ne voulons pas nous laisser surprendre et choquer,
comme eux, par les conséquences de nos inventions.
Sans relâche, j’ai toujours travaillé à améliorer la fiabilité
de mes logiciels. Les logiciels sont des outils ; par conséquent,
étant un fabricant d’outils, je dois lutter contre certains usages
des outils que je fabrique. Ma conviction a toujours été que, compte
tenu de leurs utilisations multiples, produire des logiciels plus
fiables contribuerait à bâtir un monde meilleur et plus sûr. Si
j’en arrivais à la conviction inverse, alors je me verrais dans
l’obligation morale de donner un coup d’arrêt à mon activité. Aujourd’hui,
je n’exclus plus une telle perspective.
Tout cela ne me laisse pas en colère, juste un peu mélancolique.
Dorénavant, le progrès aura pour moi un je ne sais quoi d’aigre-doux.
Vous souvenez-vous de la merveilleuse avant-dernière scène de Manhattan
où l’on voit Woody Allen, allongé sur son divan, parler dans le
micro de son magnétophone ? Il est en train de rédiger une nouvelle
avec pour sujet ces gens qui s’inventent des problèmes inutiles,
névrotiques, parce que cela leur évite d’affronter des problèmes
encore plus insolubles et terrifiants concernant l’univers.
Il en arrive à se poser la question « Qu’est-ce qui fait que la
vie vaut d’être vécue ? », et de passer en revue les choses qui,
dans son cas, l’y aident : Groucho Marx, Willie Mays, le deuxième
mouvement de la symphonie Jupiter, le Potatoe Head Blues de Louis
Armstrong, le cinéma suédois, L’Education sentimentale de Flaubert,
Marlon Brando, Frank Sinatra, les pommes et les poires de Cézanne,
les crabes de chez Sam Wo, et, pour finir, le clou : le visage de
sa petite amie Tracy.
Chacun d’entre nous aime certaines choses par-dessus tout, et cette
disposition pour autrui n’est autre que le substrat de notre humanité.
En dernière analyse, c’est du fait de cette indéniable aptitude
que je reste confiant : nous allons relever, j’en suis sûr, les
défis redoutables que nous lance l’avenir.
Mon espoir immédiat est de participer à une discussion beaucoup
plus vaste traitant des questions soulevées ici, avec des individus
d’horizons divers, et dans une disposition d’esprit échappant tant
à la crainte qu’à l’idolâtrie de la technologie, et ce au nom d’intérêts
particuliers.
En guise de préliminaires, j’ai par deux fois soulevé un grand
nombre de ces questions lors d’événements parrainés par l’Aspen
Institute et proposé par ailleurs que l’American Academy of Arts
and Sciences les intègre à ses activités concernant les conférences
de Pugwash. Ces dernières se consacrent depuis 1957 au contrôle
des armements, en particulier de type nucléaire, et formulent des
recommandations réalistes.
Ce qu’on peut regretter, c’est qu’elles n’aient été amorcées que
bien après que le génie du nucléaire se soit échappé de sa bouteille
- disons, environ, quinze ans trop tard. De la même manière, nous
sommes bien tardifs à entamer une réflexion de fond sur les enjeux
que soulèvent les technologies du XXIe siècle, et prioritairement
la prévention d’une ingénierie de destruction massive accessible
par la seule connaissance. En repousser plus loin le coup d’envoi
serait inacceptable.
Je continue donc mon exploration ; il reste un grand nombre de
choses à apprendre. Sommes-nous appelés à réussir ou à échouer,
à survivre où à tomber sous les coups de ces technologies ? Cela
n’est pas encore écrit.
Ça y est, me revoilà debout à une heure avancée ; il est presque
6 heures du matin. Je m’efforce d’imaginer des réponses plus adaptées,
et de « percer le secret » de la pierre pour les libérer.
Bill Joy
P.S. Traduit de l’anglais par Maxime Chavanne.
Voir ci-dessous, la bibliographie (en français) des ouvrages cités
par Bill Joy.
ARISTOTE (384 av. - 322 av.)
La métaphysique, Vrin, 1986 (en poche, 1991)
Dans La métaphysique, Aristote s’attache à l’étude des premiers
principes de l’être et de la science et affirme l’existence de Dieu
comme cause efficiente et finale de la nature.
ASIMOV Isaac (1920-1992)
I, Robot, 1950 (Les Robots - J’ai Lu n°453)
Auteur de plus de 400 ouvrages, dont seul un tiers touche à la
science-fiction (le reste étant constitué de romans policiers, de
livres pour la jeunesse, et d’ouvrages de vulgarisation scientifique),
Isaac Asimov est le père des lois de la robotique en littérature.
ATTALI Jacques (1943- )
Fraternités, Fayard, 1990
Lignes d’horizon, Fayard, 1999
Personnage public de premier plan, conseiller spécial de François
Mitterrand de 1981 à 1991, fondateur et premier président de la
BERD, Jacques Attali a toujours eu une intense activité littéraire.
Dans Fraternités comme dans Lignes d’horizon, il s’interroge sur
le futur de notre société, en accordant notamment une grande place
au rôle des utopies.
BETHE Hans
Lettre à Bill Clinton
http://www.fas.org/bethecr.htm
CLARKE Arthur C. (1917- )
"Presidents, Experts, and Asteroids" in Science, June
5, 1998. Réédité sous le titre "Science and Society" dans
Greetings, Carbon-Based Bipeds ! Collected Essays, 1934-1998, St.
Martin’s Press, 1999.
Rédacteur en chef adjoint d’un journal scientifique anglais, Arthur
Charles Clarke se consacre pleinement à la science-fiction à partir
des années 50. Reconnu pour ses talents de vulgarisateur scientifique
(il continuera à ce titre à écrire de nombreux articles dans la
presse), il est surtout l’auteur du scénario de 2001, l’odyssée
de l’espace (1968), le film de Stanley Kubrick.
DREXLER Eric
Engines of creation, Doubleday, 1986.
http://www.foresight.org/EOC/index.html
Unbounding the future : the nanotechnology revolution, Morrow,
1991.
Spécialisé dans les nanotechnologies, Eric Drexler est le fondateur
du MIT Nanotechnology Study Group et le « chairman » du Foresight
Institute, centre ultra-documenté qui regroupe près de 1000 membres.
DYSON Freeman (1923- )
Physicien à l’Institut d’études avancées de Princeton (NJ), Freeman
Dyson fut l’un des premiers à étudier les conséquences sur la vie
d’une expansion perpétuelle de l’univers. Voir Lawrence Krauss et
Glenn Starkman, « Le destin ultime de la vie », in Pour la science,
n°269.
http://www.pourlascience.com/numeros/pls-269/art-9.htm
DYSON George (1953- )
Darwin among the machines, Addison Wesley Longman, 1997.
Fils du physicien Freeman Dyson, George Dyson présente dans ce
livre une réflexion sur les technologies contemporaines fondées
sur les travaux de philosophes et de scientifiques du XXe siècle.
EASTERBROOK Gregg
“Food for the future : someday, rice will have built-in vitamin
A. Unless the Luddites win”, New York Times, 19/11/1999.
ELSE Jon
The day after trinity : J. Robert Oppenheimer and the atomic bomb
http://www.pyramiddirect.com
Le documentaire produit par Jon Else revient sur les événements
dramatiques entourant l’élaboration de la première bombe atomique,
et sur le rôle joué par J. Robert Oppenheimer.
FEYNMAN Richard P. (1918- )
There’s plenty of room at the bottom
http://www.zyvex.com/nanotech/feynman.html
Prix Nobel de physique en 1965 pour ses travaux sur l’électrodynamique
quantique, Richard P. Feyman s’est illustré au cours de la seconde
guerre mondiale en apportant une importante contribution au projet
Manhattan. Pédagogue reconnu, on lui doit de nombreux ouvrages scientifiques,
ainsi que d’autres livres plus personnels, de réflexion sur le rôle
de la science.
FORREST David (1956- )
"Regulating Nanotechnology Development"
Ingénieur en métallurgie, président de 1987 à 1989 du MIT Nanotechnology
Study Group, membre du Foresight Institute, il a participé en 1991
aux sélections du NASA Astronaut Candidate Program.
GARRETT Laurie
The coming plague : newly emerging diseases in a world out of balance,
Penguin, 1994
Journaliste américaine de formation scientifique (études en immunologie),
elle obtient le prix Pulitzer en 1996 pour son enquête au Zaïre
sur le virus Ebola. Dans The coming plague, elle s’interroge sur
les nouveaux virus et les maladies qui pourraient apparaître dans
le futur.
GELERNTER David
Drawing life : surviving the Unabomber, Free Press, 1997.
David Gelertner fut l’un des scientifiques victimes des attentats
perpétrés par Theodore Kackzynski.
GILDER George (1939- )
Etudiant à Harvard, George Gilder a très tôt approché les cercles
du pouvoir, en écrivant notamment des discours pour Nixon. Plus
tard, il effectuera une importante enquête sur les origines de la
pauvreté, puis surtout une étude sur les nouvelles technologies
(Microcosm-1989).
HAMILTON Edith (1867-1963)
The greek way, W. W. Norton & Co, 1993 (nouvelle édition)
Directrice d’école pendant toute sa carrière, Edith Hamilton a
publié, une fois à la retraite, plusieurs ouvrages destinés à la
jeunesse. Le premier d’entre eux, The greek way, dresse un parallèle
entre la Grèce ancienne et le monde contemporain.
HEINLEIN Robert Anson (1907-1988)
Have spacesuit will travel, 1958 (Le Vagabond de l’espace - Pocket
n°5153)
Officier de l’U.S. Navy, Robert A. Heinlein doit interrompre sa
carrière en raison d’une tuberculose. Il commence alors à publier
des nouvelles et romans de science-fiction. Fer de lance de « l’histoire
du futur », il est notamment l’auteur de Starship Troopers (1960).
On le considère comme le premier auteur à vivre de ce type de littérature.
HERBERT Franck (1920-1986)
The white plague, 1982 (La mort blanche - Livre de Poche n°7087)
Journaliste de formation, Frank Herbert s’est rapidement consacré
à l’écriture de romans et nouvelles de science-fiction. Il est surtout
connu pour avoir composé Dune, l’imposante fresque qui inspira le
film de David Lynch.
KACKZYNSKI Theodore
Ancien professeur de mathématiques à Berkeley, Theodore Kackzynski
fut arrêté en 1996, puis reconnu coupable en 1998 d’une série d’attentats
perpétrés dans des laboratoires. Voir l’Unabomber Manifesto sur
http://www.courttv.com/trials/unabomber/manifesto.
KAUFFMAN Stuart
“Self replication : even peptides do it”, in Nature, 383, 8/8/1996.
Biologiste, professeur de biochimie à l’université de Pennsylvanie
et au Santa Fe Institute.
KURZWEIL Ray
The age of spiritual machines, Viking, 1999
Ray Kurzweil est à l’origine de nombre d’inventions telles que
la Kurzweil Reading Machine (un ordinateur capable de lire un texte
manuscrit grâce à un système de reconnaissance optique). Dans The
age of spiritual machines, il évoque le dépassement de l’intelligence
humaine par la machine.
LESLIE John
The end of the world : the science and ethics of human extinction,
Routledge, 1996.
Philosophe américain, John Leslie s’intéresse particulièrement
à la cosmologie (théorie de la formation et de la nature de l’univers).
LOVINS Amory & Hunter
A l’origine de la fondation du Rocky Mountain Institute, Amory.
Lovins travaille avec Hunter Lovins (Chief Executive Officier de
l’institut) pour une gestion plus rationnelle et plus écologique
des énergies. (voir http://www.rmi.org/)
MORAVEC Hans
Robot : mere machine to transcendent mind, Oxford University Press,
1998.
Chercheur au Mobile Robot Laboratory de l’institut de robotique
de la Carnegie Mellon University, il travaille au développement
de robots autonomes. Dans Robot : mere machine to transcendent mind,
il prévoit que le robot égalera l’intelligence humaine d’ici moins
de cinquante ans.
Voir http://www.frc.ri.cmu.edu/
hpm/book97/index.html.
NIETZSCHE Friedrich
Le Gai Savoir (Gallimard, Folio Essais, Philosophie)
Dans cet ouvrage philosophique, Nietzsche développe l’idée de l’Eternel
Retour.
OPPENHEIMER Robert (1904-1967)
Physicien américain, auteur de travaux sur la théorie quantique,
Robert Oppenheimer dirigea l’équipe qui élabora la première bombe
atomique à Los Alamos. Il est aussi l’auteur d’ouvrages sur le rôle
de la science dans le monde contemporain tels que The open mind
ou Science and the common understanding.
RHODES Richard
Visions of technology : a century of debates about machines, systems
and the human world, Simon & Schuster Trade, 1999
Lauréat 1988 du Prix Pulitzer pour son ouvrage The making of the
atomic bomb, Richard Rhodes est l’auteur de quinze livres mêlant
généralement histoire et science. Dans Visions of technology, il
retrace les principales évolutions technologiques et scientifiques
du XXe siècle.
SAGAN Carl (1934-1962)
Pale blue dot : a vision of the humane future in space, New York,
Random House, 1994.
Cet astronome américain, figure de proue dans la recherche de formes
d’intelligence extraterrestre, a été associé à la plupart des missions
d’exploration spatiale. Il a également été un grand vulgarisateur
en la matière, notamment grâce à la série des émissions « Cosmos
» sur la chaîne américaine PBS.
SEARLE John (1959 - )
Philosophe américain spécialisé dans les questions de la conscience,
du langage et de l’éthique. Certains de ses ouvrages sont disponibles
en français tels que Les Actes du langage (éd. Hermann) ou L’Intentionnalité,
essai de philosophie des états mentaux (Editions de Minuit).
STONE Irving
The agony and the extasy, New American Library, 1996.
L’auteur fait revivre Michel-Ange dans une fiction souvent nourrie
d’éléments réels de la vie de l’artiste.
THOREAU (1817-1862)
Essayiste, mémorialiste et poète américain qui mena une vie ascétique
qu’il évoque dans Walden ou la vie dans les Bois (1954).
VONNEGUT Kurt (1922 - )
Cat’s Craddle, 1963 (Editions du Seuil, 1970)
Ecrivain américain, il combine la science-fiction, la satire sociale
et l’humour noir dans des romans qui s’inspirent souvent des horreurs
de ce siècle. Dans Cat’s Craddle, il évoque la déshumanisation engendrée
par les progrès de la technologie.
WOLFRAM Stephen (1959 - )
Physicien et mathématicien de formation, Stephen Wolfram a très
tôt saisi l’intérêt de l’informatique pour le scientifiques. Ses
travaux l’ont amené à éditer Mathematica, l’un des logiciels de
calcul les plus réputés sur le marché.
http://www.stephenwolfram.com
[1] Ces technologies concernent aussi la chimie, la biologie et
la physique. Leur seule particularité est de s’intéresser à ce qui
se passe à l’échelle moléculaire, voire particulaire. D’où le préfixe
« nano » qui signifie milliardième, ou 10 puissance -9, et peut
s’accoler à n’importe quelle unité de mesure : litre, mètre, seconde...
(NDT)
[2] Emules de John Ludd, passé à la postérité pour avoir brisé
des machines à tisser à la fin du XVIIIe siècle, les « luddistes
» étaient des ouvriers anglais qui firent de même au début du XIXe
siècle, en réaction au chômage dans lequel les mettait l’installation
de ces machines. (NDT)
[3] Ce passage cité par Kurzweil est extrait du Unabomber Manifesto
de Kaczynski, publié sous contrainte judiciaire par le New York
Times et le Washington Post pour tenter de marquer un coup d’arrêt
à sa campagne terroriste. Je rejoins David Gelernter, qui, sur ce
point, a déclaré :
« Rude épreuve pour un quotidien. Dire oui, c’était céder au chantage
terroriste, d’autant que jusqu’à plus ample information, il mentait.
D’un autre côté, cela mettrait peut-être fin au massacre. En outre,
il ne fallait pas exclure la possibilité que la publication de ce
tract puisse mettre la puce à l’oreille d’un lecteur. C’est précisément
ce qui s’est passé. Le propre frère du suspect l’a lu, et cela a
éveillé ses soupçons. “Je leur aurais dit de ne pas le publier.
Par chance - si l’on peut dire -, on ne m’a pas consulté”. » (In
Drawing Life : Surviving the Unabomber, Free Press, 1997, p.120)
[4] Du grec topos (« lieu ») : une dystopie est le contraire d’une
utopie, c’est-à-dire le pire des mondes possibles. (NDT)
[5] Loi dite « de l’emmerdement maximum ». (NDT)
[6] Laurie Garrett, The Coming Plague : Newly Emerging Diseases
in a World Out of Balance. Penguin, 1994, pp. 47-52, 414, 419, 452.
[7] Isaac Asimov a défini dès 1950, dans les « trois règles de
la robotique », énoncées dans son livre I, Robot, ce qui est devenu
la référence en termes de règles éthiques régissant le comportement
des robots : 1. Un robot ne doit pas blesser un être humain, ni,
par force d’inertie, laisser un être humain se faire mal. 2. Un
robot doit obéir aux ordres des êtres humains, sauf dans le cas
où ceux-ci viendraient contredire la règle n°1. 3. Un robot doit
veiller à sa propre survie, dans la mesure où celle-ci n’entre en
conflit ni avec la règle n°1 ni avec la règle n°2. »
[8] "La peste blanche", littéralement en français (NDinfokiosques.net
[9] Michel-Ange est l’auteur d’un sonnet qui débute ainsi :
“Non ha l’ ottimo artista alcun concetto Ch’ un marmo solo in sè
non circonscriva Col suo soverchio ; e solo a quello arriva La man
che ubbidisce all’ intelleto.”
Stone en donne la traduction suivante :
“Le plus talentueux des artistes n’a rien à exprimer que le bloc
minéral, sous sa gangue superflue, ne recèle déjà ; rompre le sortilège
du marbre est l’unique pouvoir de la main, au service de l’esprit.”
Stone décrit le processus en ces termes : « Il ne travaillait pas
à partir d’esquisses ou de modèles en plâtre ; ils avaient tous
été mis à l’écart. Il laissait les images de son esprit le guider.
Ses yeux, ses mains, savaient à quel endroit chaque trait, chaque
cambrure, chaque masse, devait surgir, et jusqu’où aller au coeur
de la pierre pour donner vie au bas-relief » (in The Agony and the
Ecstasy, Doubleday, 1961 : 6, 144).
[10] Extrait d’un discours intitulé « The Future of Computation
», prononcé en octobre 1989 à la First Foresight Conference on Nanotechnology,
paru dans Nanotechnology : Research and Perspectives, Crandall,
B. C. et James Lewis, éditeurs. MIT Press, 1992, p. 269.
[11] Dans un roman paru en 1963, Cat’s Cradle, Kurt Vonnegut a
imaginé un accident de type « gray goo » où une forme de glace nommée
« ice-nine », qui se solidifie à une température beaucoup plus élevée,
gèle les océans.
[12] Stuart Kauffman, « Self-replication : Even Peptides Do It
», dans le n°382 de Nature, 8 août 1996, p. 496.
[13] Condamnant sa propre invention, Oppenheimer, en larmes, citera
la Bhagavad-Gîta en reprenant les termes de Vishnu : « Now I am
become death, the destroyer of worlds. » (NDT)
[14] Jon Else, The Day After Trinity : J. Robert Oppenheimer and
The Atomic Bomb.
[15] Cette estimation figure dans The End of the World : The Science
and Ethics of Human Extinction, ouvrage dans lequel John Leslie
observe que cette probabilité croît en proportions significatives
si l’on accepte le Doomsday Argument de Brandon Carter. Concrètement,
et brièvement, « nous devrions montrer quelque défiance face à la
croyance voulant que nous soyons très exceptionnellement précoces,
croyance selon laquelle nous ferions par exemple partie des premiers
0,001 pour cent d’êtres humains de toute l’Histoire. Cela laisserait
à penser que les siècles restant à vivre à la race humaine sont
comptés, sans parler d’une colonisation de la galaxie. Si, en soi,
la thèse du Jugement dernier de Carter ne donne pas une estimation
précise du risque, elle va dans le sens d’une révision des estimations
qui ressortent de notre examen des divers dangers potentiels » (Routledge,
1996, pp. 1, 3, 145).
[16] Dite « guerre des étoiles ». (NDT)
[17] Arthur C. Clarke, « Presidents, Experts, and Asteroids »,
dans le numéro du 5 juin 1998 de Science. Reproduit sous le titre
« Science and Society » dans Greetings, Carbon-Based Bipeds ! Collected
Essays, 1934-1998. St. Martin’s Press, 1999, p.526.
[18] En outre, comme le suggère David Forrest dans un article intitulé
« Regulating Nanotechnology Development », « au cas où l’on retiendrait
la stricte responsabilité comme alternative à une réglementation,
aucun développeur, quel qu’il soit, ne serait en mesure d’intégrer
le coût du risque (l’anéantissement de la biosphère) ; en conséquence,
s’engager dans le développement des nanotechnologies est une activité
qui, théoriquement, ne devrait jamais être entreprise ».
L’analyse de Forrest ne nous laisse, comme seule aile protectrice,
la régulation gouvernementale
une idée au demeurant peu rassurante.
[19] Nietzsche, Le Gai Savoir, livre cinquième, § 344, in OEuvres,
Bouquins, Laffont, 1993, t. II., p.207 ; traduit de l’allemand par
Henri Albert, trad. révisée par Jean Lacoste. (NDT)
[20] Les Tamagotchi. (NDT)
[21] Traité sur l’expérimentation, l’utilisation et la destruction
des armes bactériologiques. (NDT)
[22] Convention sur la guerre chimique, portant sur l’interdiction
de la fabrication, du stockage et de l’utilisation d’armes chimiques.
(NDT)
[23] Matthew Meselson, « Le problème des armes biologiques », présentation
au 1818e Stated Meeting of the American Academy of Arts and Sciences,
le 13 janvier 1999.
[24] Paul Doty, « The Forgotten Menace : Nuclear Weapons Stockpiles
Still Represent the Biggest Threat to Civilization », in Nature
n°402, 9 décembre 1999, p.583.
[25] Voir également la lettre adressée en 1997 par Hans Bethe au
président Clinton.
[26] Sa Sainteté le quatorzième dalaï-lama, Sagesse ancienne, monde
moderne : Ethique pour le nouveau millénaire, Fayard, 1999.
[27] Edith Hamilton, The Greek Way. W. W. Norton & Co., 1942,
p.35.
Article présent sur d’autres sites :
http://sciencescitoyennes.org/imprime.php3?id_article=1445
www.lemonde.fr/s/billjoy/billjoy.rtf
http://endehors.org/news/8044.shtml
Bill Joy
Origine http://www.all2know.com/fr/wikipedia/b/bi/bill_joy.html
William N. Joy (né en 1954),
plus connu sous le nom de Bill Joy, est co-fondateur de Sun
Microsystems en 1982
avec Vinod
Khosla, Scott
McNealy et Andy Bechtolsheim et employé en tant que chef scientifique
par la compagnie jusqu'en 2003.
Joy possède un diplôme d'ingénieur
en électrotechnique à l'université
du Michigan
et d'ingénieur en électrotechnique et en informatique
à l'université
de Berkeley.
Bill Joy est le principal responsable des publications de l'Unix
de Berkeley, c'est-à-dire BSD,
à partir duquel sont basés beaucoup d'Unix modernes tels que FreeBSD,
NetBSD
et OpenBSD.
Certaines de ses plus importantes contributions sont TCP/IP,
l'éditeur vi
et le shell csh.
Au début des années 1980, DARPA
fait appel à BBN pour ajouter TCP/IP, sur les conseils de Vinton
Cerf et de Bob Kahn, à l'UNIX de Berkeley. Il fut demandé à Joy
d'ajouter la pile de BBN dans l'Unix. Cependant, Joy refusa de le
faire, car selon lui le support TCP/IP de BBN n'étaient pas suffisamment
bon. Il écrit donc sa propre pile TCP/IP.
À ce propos, John Gage dit ceci : « BBN avait un énorme contrat
pour implémenter TCP/IP, mais leur travail ne marchait pas, et celui
de Joy fonctionnait. Alors ils ont eu une réunion, et quand cet
étudiant en T-shirt apparut, ils lui demandèrent 'Comment avez-vous
fait ça ?' Et Bill répondit 'C'est très simple -- vous lisez le
protocole et vous écrivez le code' ». Certains réfutent cette version
des événements.
Joy est aussi une figure importante dans le développement des
microprocessors SPARC,
du langage Java
et de JINI.
En 2000,
il gagna en notoriété avec la publication d'un article dans Wired
Magazine, « Pourquoi le futur n'a pas besoin de
nous » [article ci-dessus], dans lequel il avance (ce que certains décrivent comme
une position « neo-Luddite
») qu'il est convaincu qu'avec les avancées scientifiques et techniques
en génétique
et en nanotechnologie,
les robots
intelligents remplaceront l'humanité, au moins sur les plans intellectuel
et social, dans un futur relativement proche.
Le 9
septembre 2003,
Sun déclare que Bill Joy quittait la firme et qu'il « prenait du
temps pour réfléchir à ce qu'il allait faire » et qu'il n'avait
pas de « plan définitif ».
Liens externes
BSD
Unix: Power to the people, from the code - Salon article
Why
the future doesn't need us , Wired, Avril 2000
Pourquoi
l'avenir n'a pas besoin de nous , traduction du précédent
Bill
Joy's Hi-Tech Warning
Bill
Joy , techcast.ddj.com
Le
co-fondateur Joy quitte Sun , news.com, 9 septembre 2003
Joy
After Sun , interview avec Brent Schlender pour Fortune, 29
septembre 2003
Hope
Is a Lousy Defense. , interview avec Spencer Reiss pour Wired,
décembre 2003
Un
article de Wikipédia, l‘encyclopédie libre.
.
Tous les textes sont disponibles sous les termes de la GNU
Free Documentation License.
Une version francisée (sans doute par une traducteur automatique
- Bill Joy trahi par les machines, il a donc raison de dire que "le
futur n'a pas besoin de nous !", cela se réalise déjà
au présent)
JOIE DE FACTURE
http://www.faktis.com/wiki/fr/jo/JoieDeFacture.htm
William N. Joy , généralement connu sous le nom de joie de facture,
microsystèmes Co-fondés du soleil en 1982 avec Vinod Khosla, Scott
McNealy et Andy Bechtolsheim, et servi de scientifique en chef à
la compagnie jusqu'en 2003.
La joie a reçu son B.S. en électrotechnique de l'université du
Michigan et de son M.S. dans l'électrotechnique et informatique
de Berkeley UC.
La joie de facture était la personne en grande partie chargée de
la profession d'auteur de Berkeley UNIX, également connue sous le
nom de schéma, lequel du ressort beaucoup de formes modernes d'UNIX,
y compris FreeBSD, NetBSD, et OpenBSD. Certaines de ses contributions
plus notables étaient TCP/IP, l'éditeur vi et l'interpréteur de
commandes interactif de csh.
Au début des années 80, DARPA avait contracté le BBN pour ajouter
TCP/IP, conçu par Vinton Cerf et Bob Kahn, dans Berkeley UNIX. La
joie avait été chargée pour brancher la pile du BBN à Berkeley Unix.
Mais la joie a refusé de faire ainsi. À son avis, le TCP/IP du BBN
n'était pas assez bon. Ainsi il a écrit sa propre pile à rendement
élevé de TCP/IP.
Car la mesure de John l'indique, le "BBN a eu un grand contrat
pour mettre en application TCP/IP, mais leur substance n'a pas fonctionné,
et la substance d'étudiant du diplômé de la joie a fonctionné. Ainsi
ils ont eu cette grande réunion et cet étudiant de diplômé dans
un t-shirt révèle, et ils ont dit, 'comment tu as fait ceci?' Et
la facture a indiqué, 'elle est très simple -- tu lis le protocole
et l'écriture le code.'" D'autres contestent cette version des événements.
En 1986, la joie a été attribuée une récompense de distributeur
de Murray de grace par l'ACM pour son travail sur le système d'exploitation
de Berkeley UNIX.
La joie était également une figure primaire dans le développement
des microprocesseurs de SPARC, du langage de programmation de Java,
et de JINI.
En 2000 il a gagné la notoriété avec la publication de son article
en magazine de câble, "pourquoi le futur n'a pas besoin de
nous" [article ci-dessus], dans lesquels il proposent ce que certains
ont décrit pendant qu'une "néo--Luddite" position qu'il a été convaincu
par la croissance avance dans la génétique et le nanotechnology
que les robots intelligents substitueraient l'humanité, pour le
moins dans la dominance intellectuelle et sociale, dans relativement
proche le futur.
Septembre 9, le soleil 2003 a indiqué que la joie de facture quittait
la société et qu'il "prend du temps de considérer son prochain mouvement
et n'a aucun plan défini.".
Liens externes
Schéma
Unix : Puissance aux personnes, du code - article de salon
Pourquoi
le futur n'a pas besoin de nous, de câble, avril
2000
Avertissement
De la Bonjour-Technologie De la Joie De Facture
Joie
de facture, techcast.ddj.com
joie
de Co-fondateur pour laisser le soleil, news.com, septembre
9, 2003
Joie
après le soleil, entrevue avec le brent Schlender pour la
fortune, septembre 29, 2003
L'espoir
est une défense moche., entrevue avec Spencer Reiss pour
de câble, décembre 2003
Archives
d'Internet de biographie des microsystèmes du soleil en 2003
Des sites où on trouve le même article sur Bill Joy : http://fr.wikipedia.org/wiki/Bill_Joy
http://fr.freepedia.org/Bill_Joy.html
http://bill-joy.fr.exsugo.org/
http://www.apropos-savoir.fr/Bill_Joy
http://fr.freeglossary.com/Bill_Joy
http://july.fixedreference.org/fr/20040727/wikipedia/Bill_Joy
http://www.hadida.de/BillJoy
http://encyclopaedic.net/franc/bi/bill_joy.html
http://encyclopaedic.net/franc/bi/bill_joy.html
http://www.guajara.com/wiki/fr/wikipedia/b/bi/bill_joy.html
http://www.techno-science.net/?onglet=glossaire&definition=7470
|
|